631
Un ipertesto di probabilità e statistica: il "Virtual Lab" Federico M. Stefanini Introduzione Le finalità Il progetto Gli sviluppi Il copyright Visita Sito in lingua italiana Sito mirror in lingua inglese Sito americano originale: Virtual La finalità del sito in lingua italiana (22.11.2001) La finalità del Laboratorio Virtuale di Probabilità e Statistica in lingua italiana è di costituire uno strumento ipertestuale per studenti e docenti interessati alla probabilità e alla statistica. L'ampia copertura di argomenti, i link ipertestuali e la possibilità di effettuare numerosi tipi di simulazione (tramite applet), fanno del Laboratorio Virtuale un formidabile strumento di autoistruzione. Inoltre, esiste la possibilità di creare una copia locale del sito italiano ed inglese su CDROM, di stampare la parte principale di testo ed esercizi da files in formato PDF, di modificare i files in italiano per adattare l'ipertesto originale agli specifici bisogni dei singoli corsi universitari. Il Laboratorio Virtuale è un valido ausilio da affiancare al materiale tradizionale di un corso universitario. Il progetto L'autrice del pluripremiato progetto originario è Kyle Siegrist, del Department of Mathematical Sciences, alla University of Alabama in Huntsville (Copyright © 1997-2001). L'implementazione in lingua italiana è stata curata da Federico M. Stefanini ed è stata realizzata da Marco J. Lombardi e Federico M. Stefanini. L'ipertesto italiano è nella fase beta 1.0, che indica stesura prima, revisione prima completate (22.11.2001). Il sito in lingua italiana è stato sviluppato nella Laboratorio virtuale di probabilità e statistica http://www.ds.unifi.it/~stefanin/VL/ (1 di 2) [22/11/2001 17.45.58]

Laboratorio virtuale di probabilità e statistica

  • Upload
    vulien

  • View
    251

  • Download
    22

Embed Size (px)

Citation preview

Page 1: Laboratorio virtuale di probabilità e statistica

Un ipertesto di probabilità estatistica: il "Virtual Lab"

Federico M. Stefanini

Introduzione

Le finalità●

Il progetto●

Gli sviluppi●

Il copyright●

Visita

Sito in lingua italiana●

Sito mirror in lingua inglese●

Sito americano originale: Virtual●

La finalità del sito in lingua italiana(22.11.2001)

La finalità del Laboratorio Virtuale diProbabilità e Statistica in lingua italiana è dicostituire uno strumento ipertestuale perstudenti e docenti interessati alla probabilità ealla statistica.

L'ampia copertura di argomenti, i linkipertestuali e la possibilità di effettuarenumerosi tipi di simulazione (tramite applet),fanno del Laboratorio Virtuale un formidabilestrumento di autoistruzione.

Inoltre, esiste la possibilità di creare una copialocale del sito italiano ed inglese su CDROM,di stampare la parte principale di testo edesercizi da files in formato PDF, di modificarei files in italiano per adattare l'ipertestooriginale agli specifici bisogni dei singoli corsiuniversitari. Il Laboratorio Virtuale è un validoausilio da affiancare al materiale tradizionaledi un corso universitario.

Il progetto

L'autrice del pluripremiato progetto originarioè Kyle Siegrist, del Department ofMathematical Sciences, alla University ofAlabama in Huntsville (Copyright ©1997-2001).

L'implementazione in lingua italiana è statacurata da Federico M. Stefanini ed è statarealizzata da Marco J. Lombardi e Federico M.Stefanini.

L'ipertesto italiano è nella fase beta 1.0, cheindica stesura prima, revisione primacompletate (22.11.2001).

Il sito in lingua italiana è stato sviluppato nella

Laboratorio virtuale di probabilità e statistica

http://www.ds.unifi.it/~stefanin/VL/ (1 di 2) [22/11/2001 17.45.58]

Page 2: Laboratorio virtuale di probabilità e statistica

Laboratories in Probability andStatistics

Download

Comunicazioni

F.M.Stefanini●

Kyle Siegrist●

convinzione che sia utile, MA SENZAGARANZIA di alcun tipo circa i suoicontenuti.

Gli sviluppi

L'ipertesto attuale copre molti degli argomentitradizionalmente trattati nei corsi di Statistica1, Statistica 2, e Calcolo delle probabilità.

L'estensione dell'ipertesto per includere modulidi Statistica inerenti classi di modelliparticolari (modelli lineari, linearigeneralizzati, ecc...) è in fase di studio.

Il copyright

Questo materiale è liberamente disponibile perusi non commerciali, cioè per i quali non siriceve compenso, ma si deve mantenere ilriferimento a, Kyle SiegristDepartment of Mathematical SciencesUniversity of Alabama in [email protected] © 1997-2001

e il riferimento al Dipartimento di Statistica"G. Parenti", Università degli Studi di Firenze.Versione italiana, Copyright © 2001Dipartimento di Statistica "G. Parenti"

quale che sia la forma di impiego.

Per allegare l'ipertesto italiano a riviste e/olibri, qualsiasi sia il tipo di supporto cartaceo oelettronico impiegato, occorre prenderecontatti con il Dipartimento di Statistica.

Laboratorio virtuale di probabilità e statistica

http://www.ds.unifi.it/~stefanin/VL/ (2 di 2) [22/11/2001 17.45.58]

Page 3: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale di probabilitàe statistica

Release beta 1.0 - 22.11.2001

Probabilità

Spazi di probabilità1.

Calcolo combinatorio2.

Distribuzioni3.

Valore atteso4.

Statistica

Distribuzioni notevoli1.

Campioni casuali2.

Stima puntuale3.

Stima intervallare4.

Test di ipotesi5.

Modelli speciali

Modelli geometrici1.

Prove Bernoulliane2.

Modelli di campionamento finito3.

Giochi di fortuna4.

Il processo di Poisson5.

Rosso e nero6.

Random Walk7.

Sistemi di particelle interagenti8.

Appendici

Informazioni sul Progetto1.

Benvenuti!

L'obiettivo di questo progetto è di fornire risorseinterattive per studenti e docenti di probabilità estatistica. Se questa è la tua prima visita tipreghiamo di leggere le informazioni sulprogetto, che contengono informazioni suicontenuti, la struttura e l'organizzazione di questolavoro, nonché i requisiti per i browser e ipresupposti matematici necessari.

Autori

L'autrice del progetto originariamente sviluppatoin lingua inglese è

Kyle SiegristDepartment of Mathematical SciencesUniversity of Alabama in [email protected]

Copyright © 1997-2001

L'implementazione in lingua italiana è statacurata da Federico M. Stefanini ed è statarealizzata da Marco J. Lombardi e Federico M.Stefanini.

È disponibile un documento inerente gli scopi delprogetto di traduzione in lingua italiana.

Questo materiale è liberamente disponibile perusi non commerciali, ma si deve mantenere ilriferimento all'autrice originale, quale che sia laforma di impiego. Negli usi della versioneitaliana si deve mantenere il riferimentoall'indirizzo presso il Dipartimento di Statistica"G. Parenti". Il sito in lingua italiana è statosviluppato nella convinzione che sia utile, MASENZA GARANZIA di alcun tipo circa i suoicontenuti.

Laboratorio virtuale di probabilità e statistica

http://www.ds.unifi.it/~stefanin/VL/VL_IT/index.html (1 di 2) [22/11/2001 17.46.00]

Page 4: Laboratorio virtuale di probabilità e statistica

Versione italiana, Copyright © 2001Dipartimento di Statistica "G. Parenti".

Sito web originale (in inglese)

Virtual Laboratories in Probability andStatistics

Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Laboratorio virtuale di probabilità e statistica

http://www.ds.unifi.it/~stefanin/VL/VL_IT/index.html (2 di 2) [22/11/2001 17.46.00]

Page 5: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Probabilità > [A] B C D

A. Spazi di probabilità

Sommario

Esperimenti casuali1.

Insiemi ed eventi2.

Funzioni e variabili casuali3.

Misura di probabilità4.

Probabilità condizionata5.

Indipendenza6.

Convergenza7.

Note conclusive8.

Applets

Esperimento del campione di monete●

Esperimento della moneta di Buffon●

Esperimento del campione di dadi●

Esperimento dei dadi●

Esperimento del campione di carte●

Esperimento dado-moneta●

Esperimento moneta-dado●

Citazione

Le questioni più importanti della vita si riducono ad essere, in larga parte, soloproblemi di probabilità. Pierre Simon Laplace

Laboratorio virtuale > Probabilità > [A] B C DSommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Spazi di probabilità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/index.html [22/11/2001 17.46.00]

Page 6: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Probabilità > A [B] C D

B. Calcolo combinatorio

Sommario

Principi fondamentali1.

Permutazioni2.

Combinazioni3.

Coefficienti multinomiali4.

Note zonclusive5.

Applets

Tavola di Galton●

Citazione

La bellezza è il primo test: non c'è posto al mondo per la matematica brutta. GHHardy, A Mathematician's Apology.

Laboratorio virtuale > Probabilità > A [B] C DSommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Calcolo combinatorio

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/index.html [22/11/2001 17.46.01]

Page 7: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Probabilità > A B [C] D

C. Distribuzioni

Sommario

Distribuzioni discrete1.

Distribuzioni continue2.

Distribuzioni miste3.

Distribuzioni congiunte4.

Distribuzioni condizionate5.

Funzioni di ripartizione6.

Trasformazioni di variabili7.

Convergenza in distribuzione8.

Note conclusive9.

Applets

Esperimento binomiale della moneta●

Esperimento dei dadi●

Esperimento dado-moneta●

Esperimento moneta-dado●

Variabile casuale●

Esperimento bivariato uniforme●

Istogramma interattivo●

Laboratorio virtuale > Probabilità > A B [C] DSommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Distribuzioni

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/index.html [22/11/2001 17.46.01]

Page 8: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Probabilità > A B C [D]

D. Valore atteso

Sommario

Definizione e proprietà1.

Varianza e momenti superiori2.

Covarianza e correlazione3.

Funzioni generatrici4.

Valore atteso condizionato5.

Valore atteso e matrici di covarianza6.

Note conclusive7.

Applets

Dadi●

Variabile casuale●

Istoramma interattivo●

Istoramma interattivo con grafico degli errori●

Esperimento uniforme bivariato●

Esperimento dado-moneta●

Esperimento moneta-dado●

Laboratorio virtuale > Probabilità > A B C [D]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Valore atteso

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/index.html [22/11/2001 17.46.01]

Page 9: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Valore atteso > [1] 2 3 4 5 6 7

1. Definizione e proprietà

Il valore atteso è uno dei concetti più importanti di tutta la probabilità. Il valore atteso diuna variabile casuale a valori reali indica il centro della distribuzione della variabile in unsenso particolare. In più, calcolando il valore atteso di varie trasformazioni reali di unagenerica variabile, possiamo ricavare una varietà di importanti caratteristiche dellavariabile, comprese misure di dispersione, simmetria e correlazione.

Definizioni

Al solito, iniziamo con l'introdurre un esperimento cauale definito su un certo spaziocampionario e con misura di probabilità P. Supponiamo che X sia una variabile casuale,relativa all'esperimento, a valori in un sottinsieme S di R.

Se X ha distribuzione discreta con funzione di densità f, il valore atteso di X è definitocome

E(X) = x in S xf(x).

Se X ha distribuzione continua con funzione di densità f, il valore atteso di X è definitocome

E(X) = S xf(x)dx.

Supponiamo infine che X abbia distribuzione mista, con densità parziale discreta g su D e

densità parziale continua h su C, dove D e C sono disgiunti, D è numerabile e S = D C. Il valore atteso di X è definito come

E(X) = x in C xg(x) + C xh(x)dx.

In ogni caso, il valore atteso di X può non esistere, poiché la sommatoria o l'integrale puònon convergere. Il valore atteso di X è detto anche media della distribuzione di X ed èspesso indicato con µ.

Interpretazione

La media è il centro della distribuzione di probabilità di X in un senso particolare. Sepensiamo alla distribuzione come a una distribuzione di massa, la media è il baricentrofisico della massa. Ricordiamo, a questo proposito, gli altri indici di centralità cheabbiamo studiato: la moda è ogni valore di x che massimizza f(x). la mediana è ognivalore di x che soddisfa

Definizione e proprietà

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect1.html (1 di 11) [22/11/2001 17.46.05]

Page 10: Laboratorio virtuale di probabilità e statistica

P(X < x) 1/2, P(X x) 1/2.

Per interpretare il valore atteso in senso probabilistico, supponiamo di generare un nuovoesperimento composto ripetendo più volte l'esperimento semplice. Ciò produce unasuccessione di variabili casuali indipendenti,

X1, X2, X3 ...

ciascuna distribuita come X. In termini statistici, stiamo campionando dalla distribuzionedi X. Il valore medio, o media campionaria, dopo n replicazioni è

Mn = (X1 + X2 + ··· + Xn) / n

Il valore medio Mn converge al valore atteso µ per n . La regione di questo risultatoè la legge dei grandi numeri, uno dei più importanti teoremi della probabilità.

Esempi e casi particolari

1. Una costante c può essere pensata come variabile casuale che può assumere il solovalore c con probabilità 1. La distribuzione corrispondente è detta a volte point mass in c.Mostra che

E(c) = c.

2. Sia I una variabili casuale indicatore (cioè una variabile che assume solo i valori 0 e1). Prova che

E(I) = P(I = 1).

In particolare, se IA è l'indicatore dell'evento A, allora E(IA) = P(A), per cui, in un certosenso, il valore atteso individua la probabilità. Un testo che usa come concettofondamentale il valore atteso e non la probabilità è Probability via Expectation, di PeterWhittle.

3. Supponi che X sia distribuita uniformemente su un sottinsieme finito S di R. Provache E(X) è la media aritmetica dei numeri in S.

4. Il punteggio di un dado equilibrato è distribuito uniformemente su {1, 2, 3, 4, 5, 6}.Trova il punteggio atteso.

5. Nell'esperimento dei dadi, scegli un dado equilibrato. Simula 1000 replicazioni,aggioranando ogni 10, e osserva la convergenza della media campionaria al valore attesodella distribuzione.

6. Trova il punteggio atteso di un dado piatto uno-sei. La funzione di densità è

f(1) = 1/4, f(2) = f(3) = f(4) = f(5) = 1/8, f(6) = 1/4

Definizione e proprietà

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect1.html (2 di 11) [22/11/2001 17.46.05]

Page 11: Laboratorio virtuale di probabilità e statistica

7. Nell'esperimento dei dadi, scegli un dado piatto uno-sei. Simula 1000 replicazioni,aggioranando ogni 10, e osserva la convergenza della media campionaria al valore attesodella distribuzione.

8. Supponi che Y abbia funzione di densità f(n) = p(1 - p)n - 1 per n = 1, 2, ..., dove 0 <p < 1 è un parametro. Ciò definisce la distribuzione geometrica con parametro p. Provache

E(Y) = 1 / p.

9. Supponi che N abbia funzione di densità f(n) = exp(-t)tn / n! per n = 0, 1, ..., dove t >0 è un parametro. Si tratta della distribuzione di Poisson con parametro t. Mostra che

E(N) = t.

10. Supponi che X sia distribuita uniformemente su un intervallo (a, b) di R. Prova chela media è il punto centrale dell'intervallo:

E(X) = (a + b) / 2

11. Supponi che X abbia densità f(x) = 12x2(1 - x) per 0 < x < 1.

Trova E(X).1.

Trova la moda di X2.

Trova la mediana di X3.

Disegna il grafico di f e indica la posizione di media, mediana e moda sull'assedelle x.

4.

12. Supponi che X abbia funzione di densità f(x) = a / xa + 1 per x > 1, dove a > 0 è unparametro. Si tratta della distribuzione di Pareto con parametro di forma a. Prova che

E(X) = se 0 < a 11.

E(X) = a / (a - 1) se a > 1.2.

13. Nell'applet variabile casuale, seleziona la distribuzione di Pareto. Per i seguentivalori del parametro di forma a, simula 1000 replicazioni, aggiornando ogni 10, e osservail comportamento della media empirica.

a = 11.

a = 22.

a = 33.

14. Supponi che T abbia densità f(t) = r exp(-rt) per t > 0 dove r > 0 è un parametro.Abbiamo quindi una distribuzione esponenziale con parametro di velocità r.

Prova che E(T) = 1 / r.1.

Prova che la moda di T è 0.2.

Prova che la mediana di T è ln(2) / r.3.

Definizione e proprietà

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect1.html (3 di 11) [22/11/2001 17.46.05]

Page 12: Laboratorio virtuale di probabilità e statistica

Disegna il grafico di f e indica la posizione di media, mediana e moda sull'assedelle x.

4.

15. Nell'applet variabile casuale, seleziona la distribuzione gamma e poni k = 1 peravere la distribuzione esponenziale. Modifica r con la barra a scorrimento e osserva laposizione della media rispetto al grafico della funzione di ripartizione. Con r = 2, simula1000 replicazioni, aggiornando ogni 10. Osserva la convergenza della media campionariaal valore atteso della distribuzione.

16. Supponi che X abbia densità f(x) = 1 / [ (1 + x2)], x appartenente a R. Si ha cosìuna distribuzione di Cauchy (che prende nome da Augustin Cauchy), della famiglia delledistribuzioni t.

Disegna il grafico di f.1.

Prova che E(X) non esiste.2.

Trova la mediana di X.3.

Trova la moda di X.4.

17. Nell'applet variabile casuale, seleziona la distribuzione t di Student e poni n = 1 peravere la distribuzione di Cauchy. Simula 1000 replicazioni, aggiornando ogni 10, eosserva il comportamento della media campionaria.

18. Supponi che Z abbia densità f(z) = exp(-z2 / 2) / (2 )1/2 per z appartenente a R. Siha quindi una distribuzione normale standardizzata.

Prova che E(Z) = 0.1.

Disegna il grafico di f e indica E(Z) sull'asse z.2.

19. Nell'applet variabile casuale, seleziona la distribuzione normale (i valoripreimpostati corrispondono a una normale standardizzata). Simula 1000 replicazioni,aggiornando ogni 10, e osserva la convergenza della media campionaria al valore attesodella distribuzione

Teorema del cambiamento di variabile

Il valore atteso di una variabile casuale a valori reali indica il centro della distribuzionedella variabile. Quest'ida è molto più potente di quanto non potrebbe sembrare: calcolandoil valore atteso di varie funzioni di una certa variabile casuale, possiamo individuaremolte interessanti caratteristiche della distribuzione.

Supponiamo che X sia una variabile casuale a valori in un generico insieme S, e che r siafunzione da S in R. r(X) è quindi una variabile casuale a valori reali, e possiamo essereinteressati al calcolo di E[r(X)]. Il calcolo di questo valore atteso richiede però, perdefinizione, la conoscenza della funzione di densità della variabile trasformata r(X) (ingenere problema complesso). Fortunatamente, si può procedere in maniera più sempliceutilizzando il teorema del cambiamento di variabile per il valore atteso.

20. Mostra che, se X ha distribuzione discreta con funzione di densità f, allora

Definizione e proprietà

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect1.html (4 di 11) [22/11/2001 17.46.05]

Page 13: Laboratorio virtuale di probabilità e statistica

E[r(X)] = x in S r(x)f(x).

Similmente, se X ha distribuzione continua con funzione di densità f allora

E[r(X)] = S r(x)f(x)dx.

21. Dimostra il teorema del cambiamento di variabile nel caso in cui X è continua e rdiscreta (cioè r ha campo di variazione numerabile).

22. Supponi che X sia distribuita uniformemente su (-1, 3).

Trova la densità di X2.1.

Trova E(X2) utilizzando la funzione di densità in (a).2.

Trova E(X2) utilizzando il teorema del cambiamento di variabile.3.

23. Supponi che X abbia funzione di densità f(x) = x2 / 60 per x {-2, -1, 1, 2, 3, 4,5}.

Trova E(X).1.

Trova la densità di X2.2.

Trova E(X2) utilizzando la funzione di densità in (a).3.

Trova E(X2) utilizzando il teorema del cambiamento di variabile.4.

24. Supponi che X abbia funzione di densità f(x) = 12x2(1 - x) per 0 < x < 1. Trova

E(1/X)1.

E(X1/2)2.

25. Supponi che (X, Y) abbia funzione di densità di probabilità f(x, y) = 2(x + y) per 0< x < y < 1. Trova

E(X)1.

E(Y)2.

E(X2Y).3.

E(X2 + Y2)4.

26. Supponi che X sia distribuita uniformemente sull'intervallo [a, b], e che g siafunzione continua da [a, b] in R. Mostra che E[g(X)] è il valore medio di g su [a, b], comedefinito in analisi.

Proprietà fondamentali

Gli esercizi seguenti identificano le proprietà fondamentali del valore atteso. Taliproprietà valgono in generale, ma limitati a dimostrarle separatamente per il caso discretoe il caso continuo, facendo affidamento prevalentemente sul teorema del cambiamento di

Definizione e proprietà

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect1.html (5 di 11) [22/11/2001 17.46.05]

Page 14: Laboratorio virtuale di probabilità e statistica

variabile. In questi esercizi X e Y sono variabili casuali a valori reali relative a unesperimento, c è una costante e si assume che i valori attesi indicati esistano.

27. Prova che E(X + Y) = E(X) + E(Y)

28. Prova che E(cX) = cE(X).

Quindi, in conseguenza di questi primi due risultati,

E(aX + bY) = aE(X) + bE(Y)

per due costanti a e b; detto a parole, il valore atteso è un operatore lineare.

29. Dimostra che, se X 0 (con probabilità 1), allora E(X) 0.

30. Dimostra che, se X Y (con probabilità 1), allora E(X) E(Y)

31. Prova che |E(X)| E(|X|)

I risultati di questi esercizi sono così importanti che è bene comprenderli anche a livellointuitivo. In realtà, tali proprietà sono in un certo senso conseguenza dell'interpretazionedel valore atteso alla luce della legge dei grandi numeri.

32. Supponi che X e Y siano indipendenti. Prova che

E(XY) = E(X)E(Y)

L'esercizio precedente mostra che variabili casuali indipendenti sono incorrelate.

33. Si lanciano due dadi equilibrati e si registrano i punteggi (X1, X2). Trova il valoreatteso di

Y = X1 + X2.1.

Z = X1X2.2.

U = min{X1, X2}3.

V = max{X1, X2}.4.

34. Sia E(X) = 5 e E(Y) = -2. Trova E(3X + 4Y - 7).

35. Supponi che X e Y siano indipendenti e che E(X) = 5, E(Y) = -2. Trova

E[(3X - 4)(2Y + 7)]

36. Ci sono 5 cacciatori di anatre, tutti ottimi tiratori. Passa uno stormo di 10 oche, eciascun cacciatore ne sceglie una a caso e spara. Trova il numero di oche uccise atteso.Suggerimento: Esprimi il numero di oche uccise come somma di variabili casualiindicatore.

Per un'analisi più completa del problema del cacciatore di anatre, vedi il numero di valori

Definizione e proprietà

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect1.html (6 di 11) [22/11/2001 17.46.05]

Page 15: Laboratorio virtuale di probabilità e statistica

campionari distinti nel capitolo sui modelli di campionamento finito.

Momenti

Se X è una variabile casuale, a un numero reale e n > 0, l'n-esimo momento di X centratosu a è definito come

E[(X - a)n].

I momenti centrati su 0 si dicono semplicemente momenti. I momenti centrati su µ = E(X)si dicono momenti centrali. Il momento secondo è particolarmente importante ed èstudiato in dettaglio nel paragrafo sulla varianza. In certi casi, se si conoscono tutti imomenti di X, possiamo individuare completamente la distribuzione di X. Questoconcetto è analizzato nel paragrafo sulle funzioni generatrici.

37. Supponi che X sia distribuita uniformemente sull'intervallo (a, b). Trova unaformula generale per i momenti di X.

38. Supponi che X abbia densità f(x) = 12x2(1 - x), 0 < x < 1. Trova una formulagenerale per i momenti di X.

39. Supponi che X abbia distribuzione continua con densità f e simmetrica attorno ada:

f(a + t) = f(a - t) per ogni t

Mostra che, se E(X) esiste, allora E(X) = a.

Variabili non negative

40. Sia X una variabile casuale non negativa (continua o discreta) relativa a un certoesperimento. Dimostra che

E(X) = {x > 0} P(X > x)dx.

Suggerimento: Nella rappresentazione di cui sopra, esprimi P(X > t) in funzione delladensità di X, come sommatoria nel caso discreto o integrale nel caso continuo. Poiscambia integrale e sommatoria (nel caso discreto) o i due integrali (nel caso continuo).

41. Prova la disuguaglianza di Markov (in onore di Andrei Markov): Se X è unavariabile non negativa, allora per t > 0,

P(X t) E(X) / t.

Suggerimento: Sia It la variabile indicatore dell'evento {X t}. Prova che tIt X. Poiprendi i valori attesi tramite la disugauglianza.

Definizione e proprietà

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect1.html (7 di 11) [22/11/2001 17.46.05]

Page 16: Laboratorio virtuale di probabilità e statistica

42. Usa il risultato dell'esercizio 40 per provare la formula del cambiamento divariabile nel caso in cui il vettore casuale X ha distribuzione continua e r è non negativo.

43. Usa il risultato dell'esercizio 40 per provare che se X è non negativa e E(X) = 0allora P(X = 0) = 1.

Il seguente risultato è simile a quello dell'esercizio 40, ma specifico per le variabile avalori interi non negativi:

44. Supponi che N sia una variabile casuale discreta che assume valori nell'insiemedegli interi non negativi. Prova che

E(N) = n = 0, 1, ... P(N > n) = n = 1, 2, ... P(N n).

Suggerimento: Nella prima formula, esprimi P(N > n) come somma in termini dellafunzione di densità di N e scambia quindi le due sommatorie. La seconda formula puòessere ottenua a partire dalla prima con un cambiamento di variabile degli indici disomma.

45. Supponi che X abbia funzione di densità f(x) = r exp(-rx) per x > 0, dove r > 0 èun parametro. Si ha quindi la distribuzione esponenziale con parametro di velocità r.

Trova E(X) utilizzando la definizione.a.

Trova E(X) utilizzando la formula dell'esercizio 40.b.

Calcola entrambi i lati della disugauglianza di Markov.c.

46. Supponi che Y abbia funzione di densità g(n) = (1 - p)n - 1p per n = 1, 2, ... dove 0< p < 1 è un parametro. Ciò definisce la distribuzione geometrica con parametro p.

Trova E(X) utilizzando la definizione.a.

Trova E(X) utilizzando la formula dell'esercizio 40.b.

Calcola entrambi i lati della disugauglianza di Markov.c.

Una definizione generale

Il risultato dell'esercizio 40 può essere utilizzato come base per una formulazione generaledel valore atteso che vale nei casi continuo, discreto e misto. In primo luogo, prendiamo ilrisultato dell'esercizio 40 come definizione di E(X) se X è non negativa.

Poi, per un numero reale x, definiamo le parti positiva e negativa di x come segue

x+ = x se x 0 e x+ = 0 se x < 0●

x- = 0 se x 0 e x- = -x se x < 0●

47. Prova che

x+ 0, x- 01.

x = x+ - x-.2.

Definizione e proprietà

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect1.html (8 di 11) [22/11/2001 17.46.05]

Page 17: Laboratorio virtuale di probabilità e statistica

|x| = x+ + x-.3.

Infine, se X è una variabile casuale, allora X+ e X-, le parti postiva e negativa di X, sonovariabili casuali non negative. Quindi, assumendo che E(X+) o E(X-) (o entrambi) siafinito, possiamo definire

E(X) = E(X+) - E(X-)

Disuguaglianza di Jensen

La prossima serie di esercizi porterà a definire un'importante disugauglianza nota comedisuguaglianza di Jensen, così detta in onore di Johan Jensen. Introduciamo in primoluogo alcune definizioni. Una funzione a valori reali g definita su un intervallo S di R èdetta convessa su S se per ogni x0 appartenente a S, esistono numeri a e b (che possonodipendere da x0) tali che

ax0 + b = g(x0), ax + b g(x) per x appartenente a S.

48. Interpreta geometricamente la definizione di funzione convessa. La linea y = ax + bè detta linea di supporto a x0.

Puoi essere più familiare con la convessità in termini del seguente teorema di analisi:

49. Prova che g è convessa su S se g ha derivata seconda continua e non negativa su S.Suggerimento: Mostra che la tangente a x0 è linea di supporto a x0.

50. Prova la disuguaglianza di Jensen: se X assume valori in un intervallo S e g èconvessa su S, allora

E[g(X)] g[E(X)]

Suggerimento: Nella definizione di convessità sopra riportata, poni x0 = E(X) e sostituiscix con X. Prendi poi i valori attesi attraverso la disuguaglianza.

51. Supponi che X abbia funzione di densità f(x) = a / xa + 1 per x > 1, dove a > 1 è unparametro. Si ha allora la distribuzione di Pareto con parametro di forma a.

Trova E(X) utilizzando la formula dell'esercizio 40.a.

Trova E(1/X).b.

Mostra che g(x) = 1/x è convessa su (0, ).c.

Verifica la disuguaglianza di Jensen confrontando i risultati di (a) e (b).d.

La disuguaglianza di Jensen si estende semplicemente al caso multidimensionale. Laversione bidimensionale è particolarmente importante poiché sarà utilizzata per ricavaremolte delle disuguaglianze speciali del prossimo paragrafo. In primo luogo, unsottinsieme S di R2 è convesso se

u, v S e p [0, 1] implica (1 - p)u + pv S.

Definizione e proprietà

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect1.html (9 di 11) [22/11/2001 17.46.05]

Page 18: Laboratorio virtuale di probabilità e statistica

Una funzione a valori reali g su S è detta convessa se per ogni (x0, y0) appartenente a S,esistono numeri a, b e c (dipendenti da (x0, y0)) tali che

ax0 + by0 + c = g(x0, y0), ax + by + c g(x, y) per (x, y) appartenente a S.

52. Interpreta geometricamente le nozioni di insieme convesso e funzione convessa. Ilpiano z = ax + by + c è detto piano di supporto a (x0, y0).

Dall'analisi, g è convessa su S se g ha derivate seconde continue su S se ha matrice diderivate seconde definita non positiva:

gxx 0, gyy 0, gxxgyy - gxy2 0 su S.

53. Prova la disuguaglianza di Jensen: se (X, Y) assume valori in un insieme convessoS e g è convessa su S allora

E[g(X, Y)] g[E(X), E(Y)].

Suggerimento: nella definizione di convessità, poni x0 = E(X), y0 = E(Y), e sostituisci xcon X, y con Y. Prendi poi i valori attesi attraverso la disuguaglianza.

54. Supponi che (X, Y) abbia funzione di densità di probabilità f(x, y) = 2(x + y) per 0< x < y < 1.

Prova che g(x, y) = x2 + y2 è convessa nel dominio di f.1.

Calcola E(X2 + Y2).2.

Calcola [E(X)]2 + [E(Y)]2.3.

Verifica la disuguaglianza di Jensen confrontando (b) e (c).4.

Sia nel caso monodimensionale che in quello bidimensionale, una funzione g si diceconcava se la disuguaglianza della definizione è invertita. Si inverte anche ladisguaglianza di Jensen.

55. Supponi che x1, x2, ..., xn siano numeri positivi. Prova che la media aritmetica èalmeno maggiore della media geometrica:

(x1 x2 ··· xn)1/n (x1 + x2 + ··· + xn) / n.

Suggerimento: sia X uniformemente distribuita su {x1, x2, ..., xn} e sia g(x) = ln(x).

Valore atteso condizionato

Il valore atteso di una variabile casuale X dipende, ovviamente, dalla misura di probabilitàP dell'esperimento. Tale misura di probabilità può essere una misura di probabilitàcondizionata dato un evento B dell'esperimento (con P(B) > 0). La notazione usuale è E(X| B), e tale valore atteso si calcola attraverso le definizioni riportate all'inizio di questoparagrafo, eccettuato il fatto che la densità condizionata f(x | B) si sostituisce alla densità

Definizione e proprietà

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect1.html (10 di 11) [22/11/2001 17.46.05]

Page 19: Laboratorio virtuale di probabilità e statistica

ordinaria f(x). È molto importante capire che, a parte la notazione, non si introducononuovi concetti. Il risultati che abbiamo trovato per il valore atteso nel caso generale hannorisultati analoghi nel caso del valore atteso condizionato.

56. Supponi che X abbia funzione di densità f(x) = r exp(-rx) per x > 0, dove r > 0 èun parametro. Si ha allora la distribuzione esponenziale con parametro di velocità r. Perdato t > 0, trova

E(X | X > t).

57. Supponi che Y abbia funzione di densità g(n) = (1 - p)n - 1p per n = 1, 2, ... dove 0< p < 1 è un parametro. Si ha allora la distribuzione geometrica con parametro p. Trova

E(Y | Y è pari).

58. Supponi che (X, Y) abbia funzione di densità f(x, y) = x + y per 0 < x < 1, 0 < y <1. Trova

E(XY | Y > X).

Più in generale, il valore atteso condizionato, dato il valore di un'altra variabile casuale, èun argomento molto importante che sarà trattato in un altro paragrafo.

Laboratorio virtuale > Valore atteso > [1] 2 3 4 5 6 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Definizione e proprietà

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect1.html (11 di 11) [22/11/2001 17.46.05]

Page 20: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Valore atteso > 1 [2] 3 4 5 6 7

2. Varianza e momenti superiori

Definizione

Al solito, iniziamo con l'introdurre un esperimento casuale definito su un certo sapaziocampionario e con misura di probabilità P. Supponiamo che X sia una variabile casuale,relativa all'esperimento, a valori in un sottinsieme S di R. Ricordiamo che il valore atteso(o media) di X indica il centro della distribuzione di X. La varianza di X è una misuradella dispersione della distribuzione attorno al centro ed è definita come

var(X) = E{[X - E(X)]2}

La varianza è quindi il secondo momento centrale di X.

1. Supponi che X abbia distribuzione discreta con funzione di densità f. Usa il teoremadel cambiamento di variabile per mostrare che

var(X) = x in S [x - E(X)]2 f(x).

2. Supponi che X abbia distribuzione continua con funzione di densità f. Usa ilteorema del cambiamento di variabile per mostrare che

var(X) = S [x - E(X)]2 f(x)dx.

La deviazione standard di X è la radice quadrata della varianza:

sd(X) = [var(X)]1/2.

Misura anch'essa la dispersione attorno alla media, ma è espressa nella stessa unità dimisura di X.

Proprietà

Gli esercizi seguenti riportano alcune proprietà fondamentali della varianza, che si basanosulle proprietà del valore atteso:

3. Dimostra che var(X) = E(X2) - [E(X)]2.

4. Dimostra che var(X) 0

5. Dimostra che var(X) = 0 se e solo se P(X = c) = 1 per una costante c.

6. Dimostra che se a e b sono costanti allora var(aX + b) = a2var(X)

Varianza e momenti superiori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect2.html (1 di 9) [22/11/2001 17.46.08]

Page 21: Laboratorio virtuale di probabilità e statistica

7. Let Z = [X - E(X)] / sd(X). Dimostra che Z ha media 0 e varianza 1.

La variabile casuale Z dell'esercizio 7 è detta a volte standard score associato a X. PoichéX e la sua media e deviazione standard sono espressi nella stessa unità di misura, lostandard score Z è un numero puro. Misura la distanza tra E(X) e X in termini dideviazioni standard.

D'altra parte, quando E(X) è diverso da zero, il rapporto tra deviazione standard e media èdetto coefficiente di variazione:

sd(X) / E(X)

Osserva che anche questa quantità è un numero puro, ed è a volte utilizzata perconfrontare la variabilità di variabili casuali con medie diverse.

Esempi e casi particolari

8. Supponi che I sia una variabile indicatore con P(I = 1) = p.

Mostra che var(I) = p(1 - p).a.

Disegna il grafico di var(I) in funzione di p.b.

Trova il valore di p che massimizza var(I).c.

9. Il punteggio di un dado equilibrato è distribuito uniformemente su {1, 2, 3, 4, 5, 6}.Trova media, varianza e deviazione standard.

10. Nell'esperimento dei dadi, seleziona un dado equilibrato. Simula 1000 replicazioni,aggiornando ogni 10, e osserva la convergenza della media e della deviazione standardempiriche ai loro valori teorici.

11. Su un dado piatto uno-sei, le facce 1 e 6 hanno probabilità 1/4 e le facce 2, 3, 4 e 5hanno probabilità 1/8. Trova media, varianza e deviazione standard.

12. Nell'esperimento dei dadi, seleziona un dado piatto uno-sei. Simula 1000replicazioni, aggiornando ogni 10, e osserva la convergenza della media e delladeviazione standard empiriche ai loro valori teorici.

13. Supponi che X sia distribuita uniformemente su {1, 2, ..., n}. Prova che

var(X) = (n2 - 1) / 12.

14. Supponi che Y abbia funzione di densità f(n) = p(1 - p)n - 1 per n = 1, 2, ..., dove 0< p < 1 è un parametro. Si ha allora la ditribuzione geometrica con parametro p. Prova che

var(Y) = (1 - p) / p2.

15. Supponi che N abbia funzione di densità f(n) = exp(-t)tn / n! for n = 0, 1, ..., dove t> 0 è un parametro. Si ha allora la distribuzione di Poisson con parametro t. Prova che

Varianza e momenti superiori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect2.html (2 di 9) [22/11/2001 17.46.08]

Page 22: Laboratorio virtuale di probabilità e statistica

var(N) = t.

16. Supponi che X sia distribuita uniformemente sull'intervallo (a, b) con a < b. Provache

var(X) = (b - a)2 / 12.

Nota in particolare che la varianza dipende solo dalla lunghezza dell'intervallo, il chesembra intuitivamente ragionevole.

17. Supponi che X abbia funzione di densità f(x) = r exp(-rx) per x > 0. Si ha allorauna distribuzione esponenziale con parametro di velocità r > 0. Prova che

sd(X) = 1 / r.

18. Nell'esperimento gamma, poni k = 1 per avere una distribuzione esponenziale.Modifica r con la barra a scorrimento e osserva posizione e dimensione della barramedia-deviazione standard. Con r = 2, simula 1000 replicazioni, aggiornando ogni 10.Osserva la convergenza della media e della deviazione standard empiriche ai loro valoriteorici.

19. Supponi che X abbia densità f(x) = a / xa + 1 for x > 1, dove a > 0 è un parametro.Si ha allora la distribuzione di Pareto con parametro di forma a. Prova che

var(X) = se 1 < a 21.

var(X) = a / [(a - 1)2(a - 2)] se a > 2.2.

20. Supponi che Z abbia densità f(z) = exp(-z2 / 2) / (2 )1/2 per z appartenente a R. Siha allora una distribuzione normale standardizzata. Mostra che

var(Z) = 1.

Suggerimento: Integra per parti in E(Z2).

21. Nell'applet variabile casuale, seleziona la distribuzione normale (i parametripreimpostati individuano la normale standardizzata). Simula 1000 replicazioni,aggiornando ogni 10, e osserva la convergenza della media e della deviazione standardempiriche ai loro valori teorici.

22. Supponi che X sia una variabile casuale con E(X) = 5, var(X) = 4. Trova

var(3X - 2)1.

E(X2)2.

23. Supponi che X1 e X2 siano variabili casuali indipendenti con E(Xi) = µi, var(X) =

di2 for i = 1, 2. Mostra che

var(X1X2) = (d12 + µ1

2)(d22 + µ2

2) - µ12µ2

2.

Varianza e momenti superiori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect2.html (3 di 9) [22/11/2001 17.46.08]

Page 23: Laboratorio virtuale di probabilità e statistica

24. Marilyn Vos Savant ha un quoziente di intelligenza di 228. Assumendo che ladistribuzione dei quozienti di intelligenza abbia media 100 e devizione standard 15, trovalo standard score di Marilyn.

La disuguaglianza di Chebyshev

La disuguaglianza di Chebyshev (che prende nome da Pafnuty Chebyshev) individua unlimite superiore per la probabilità che una variabile casuale sia più distante di un certovalore dalla sua media.

25. Usa la disuguaglianza di Markov per dimostrare la disuguaglianza di Chebyshev:per t > 0,

P[|X - E(X)| t] var(X) / t2.

26. Ricava la seguente versione alternativa della disuguaglianza di Chebyshev: per k >0,

P[|X - E(X)| k sd(X)] 1 / k2.

27. Supponi che Y abbia distribuzione geometrica con parametro p = 3/4. Calcola ilvalore vero e il limte superiore di Chebyshev per la probabilità che Y sia distante almeno2 deviazioni standard dalla media.

28. Supponi che X abbia distribuzione esponenziale con parametro di velocità r > 0.Calcola il valore vero e il limte superiore di Chebyshev per la probabilità che X siadistante almeno deviazioni standard dalla media.

Asimmetria e curtosi

Ricordiamo di nuovo che la varianza di X è il momento secondo di X centrato sulla mediae misura la dispersione della ditribuzione di X attorno alla media. I momenti centrali terzoe quarto di X misurano anch'essi caratteristiche interessanti della distribuzione. Ilmomento terzo misura la skewness, ovvero l'asimmetria, mentre il momento quarto misurala curtosi, ovvero il grado di "appuntimento" della distribuzione. Le misure numeriche ditali caratteristiche vengono standardizzate, per eliminare le unità di misura, dividendo peruna potenza appropriata della deviazione standard.

Sia µ = E(X) e d = sd(X). L'asimmetria di X è definita come

skew(X) = E[(X - µ )3] / d3.

la curtosi di X è invece

kurt(X) = E[(X - µ )4] / d4.

29. Supponi che X abbia densità f, simmetrica rispetto a µ. Prova che skew(X) = 0.

30. Prova che

Varianza e momenti superiori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect2.html (4 di 9) [22/11/2001 17.46.08]

Page 24: Laboratorio virtuale di probabilità e statistica

skew(X) = [E(X3) - 3µE(X) + 2µ3] / d3.

31. Prova che

kurt(X) = [E(X4) - 4µE(X) + 6µ2 E(X2) - 3µ4] / d4.

32. Disegna il grafico delle seguenti funzioni di densità e calcola skewness e curtosi.(Si tratta di membri della famiglia beta).

f(x) = 6x(1 - x), 0 < x < 1.1.

f(x) = 12x2(1 - x), 0 < x < 1.2.

f(x) = 12x(1 - x)2, 0 < x < 1.3.

Norma

La varianza e i momenti di ordine superiore sono collegati ai concetti di norma e distanzanella teoria degli spazi vettoriali. Tale collegamento può aiutare a connettere e illustrare

alcuni dei concetti presentati. Sia X una variabile casuale a valori reali. Per k 1, sidefinisce la k-norma come

||X||k = [E(|X|k)]1/k.

Quindi ||X||k misura in un certo senso la dimensione di X. Per un dato spazio diprobabilità (cioè un dato esperimento casuale), l'insieme delle variabili casuali conmomento k-esimo finito forma uno spazio vettoriale (se identifichiamo due varaibilicasuali che coincidono con probabilità 1). Gli esercizi seguenti mostrano che la k-norma èdi fatto una norma su questo spazio vettoriale.

33. Mostra che ||X||k 0 per ogni X.

34. Mostra che ||X||k = 0 se e solo se P(X = 0) = 1.

35. Mostra che ||cX||k = |c| ||X||k per ogni costante c.

L'esercizio seguente ricava la disuguaglianza di Minkowski, che prende nome daHermann Minkowski. È detta anche disuguaglianza triangolare.

36. Prova che ||X + Y||k ||X||k + ||Y||k per ogni X e Y.

Prova che g(x, y) = (x1/k + y1/k)k è concava su {(x, y) in R2: x 0, y 0}.1.

Usa (a) e la disuguaglianza di Jensen per concludere che, se U e V sono varaibili

casuali non negative, allora E[(U1/k + V1/k)k] {[E(U)]1/k + [E(V)]1/k}k.

2.

In (b) poni U = |X|k e V = |Y|k ed effettua qualche manovra algebrica.3.

L'esercizio seguente identifica la disuguaglianza di Lyapunov, che prende nome daAleksandr Lyapunov. Questa disuguaglianza prova che la k-norma di una variabilecasuale è crescente in k.

Varianza e momenti superiori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect2.html (5 di 9) [22/11/2001 17.46.08]

Page 25: Laboratorio virtuale di probabilità e statistica

37. Prova che, se j k, allora ||X||j ||X||k.

Mostra che g(x) = xk/j è convessa su {x: x 0}.1.

Usa (a) e la disuguaglianza di Jensen per concludere che, se U è una variabile

casuale non negativa, allora [E(U)]k/j E(Uk/j).

2.

In (b), poni U = |X|j ed effettua qualche manovra algebrica.3.

La disuguaglianza di Lyapanov mostra che, se X ha momento k-esimo finito e j < k, alloraX ha momento j-esimo finito.

38. Supponi che X sia distribuita uniformemente sull'intervallo (0, 1).

Trova ||X||k.1.

Disegna ||X||k in funzione di k.2.

Trova il limite ||X||k per k .3.

39. Supponi che X abbia densità f(x) = a / xa + 1 per x > 1, dove a > 0 è un parametro.Si ha quindi un a distribuzione di Pareto con parametro di forma a.

Trova ||X||k.1.

Disegna ||X||k in funzione k < a.2.

Trova il limite ||X||k per k a-.3.

40. Supponi che (X, Y) abbia densità f(x, y) = x + y per 0 < x < 1, 0 < y < 1. Verificala disuguaglianza di Minkowski.

Distanza

La k-norma, come ogni altra norma, può essere utilizzata per misurare la distanza; bastacalcolare la norma della differenza tra le unità. Definiamo pertanto la k-distanza (ok-metrica) tra due variabili casuali a valori reali X e Y come

dk(X, Y) = ||Y - X||k = [E(|Y - X|k)]1 / k.

Le proprietà presentate nei prossimi esercizi sono analoghe a quelle degli esercizi 33-36(e quindi non serve molta fatica in più). Tali proprietà mostrano che la k-distanza è difatto una misura di distanza.

41. Mostra che dk(X, Y) 0 per ogni X, Y.

42. Mostra che dk(X, Y) = 0 se e solo se P(Y = X) = 1.

43. Mostra che dk(X, Y) dk(X, Z) + dk(Z, Y) per ogni X, Y, Z (si parla anche didisuguaglianza triangolare).

Varianza e momenti superiori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect2.html (6 di 9) [22/11/2001 17.46.08]

Page 26: Laboratorio virtuale di probabilità e statistica

Pertanto, la deviazione standard è semplicemente la 2-distanza tra X e la sua media:

sd(X) = d2[X, E(X)] = {E[(X - E(X)]2}1/2.

e la varianza è il quadrato di tale quantità. Più in generale, il momento k-esimo di Xcentrato su a è semplicemente la k-esima potenza della k-distanza tra X e a. La 2-distanzaè particolaremente importante per ragioni che appariranno più chiare più avanti e nelprossimo paragrafo. Questa distanza è detta inoltre root mean square distance.

Centro e dispersione da un'altra angolazione

Le misure di centro e dispersione possono essere interpretate in maniera interessante nelcontesto della misura della distanza. Per una variabile casuale X, in primo luogo si tentadi individuare le costanti t più vicine a X, come misurate dalla distanza data; ogni t è unamisura di centralità relativa alla distanza. La minima distanza corrispondente è la misuradi dispersione.

Applichiamo questa procedura alla 2-distanza. Definiamo quindi la funzione di errore rootmean square come

d2(X, t) = ||X - t||2 = {E[(X - t)2]}1/2.

44. Prova che d2(X, t) è minima per t = E(X) e che il valore minimo è sd(X).Suggerimento: il valore minimo si presenta nello stesso punto del valore minimo di E[(X -t)2]. Espandi e prendi i valori attesi termine a termine. L'espressione risultante è unafunzione quadratica di t.

45. Nell'istogramma interattivo, costruisci una distribuzione discreta seguendo leindicazioni sottindicate. Osserva la posizione e la dimensione della barra media ±deviazione standard e la forma del grafico dell'errore quadratico medio.

Distribuzione uniformea.

Distribuzione simmetrica unimodaleb.

Distribuzione unimodale asimmetrica a destrac.

Distribuzione unimodale asimmetrica a sinistrad.

Distribuzione simmetrica bimodalee.

Distribuzione a forma di uf.

Applichiamo ora questa procedura alla 1-distanza. Definiamo pertanto la funzione dierrore medio assoluto come

d1(X, t) = ||X - t||1 = E[|X - t|].

46. Prova che d1(X, t) è minima quando t è una mediana di X.

L'ultimo esercizio mostra che l'errore medio assoluto ha un grosso limite come misura dierrore poiché non è detto che esista un unico valore di t. Al contario, per moltedistribuzioni discrete, esiste un intervallo mediano. Quindi, in termini dell'errore medio

Varianza e momenti superiori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect2.html (7 di 9) [22/11/2001 17.46.08]

Page 27: Laboratorio virtuale di probabilità e statistica

assoluto, non c'è ragione per scegliere un valore dell'intervallo piuttosto che un altro.

47. Costruisci le distribuzioni del tipo indicato sotto. In ciascun caso, nota la posizionee la dimensione del boxplot e la forma del grafico dell'errore medio assoluto.

Distribuzione uniformea.

Distribuzione simmetrica unimodaleb.

Distribuzione unimodale asimmetrica a destrac.

Distribuzione unimodale asimmetrica a sinistrad.

Distribuzione simmetrica bimodalee.

Distribuzione a forma di uf.

48. Sia I una variabile indicatore con P(I = 1) = p. Disegna il grafico di E[|I - t|] infunzione di t in ciascuno dei seguenti casi. In ogni caso, trova il valore minimo dell'erroremedio assoluto e i valori di t in cui si ha il minimo.

p < 1/21.

p = 1/22.

p > 1/23.

Convergenza

Quando si ha una misura di distanza, si ha anche automaticamente un criterio di

convergenza. Siano Xn, n = 1, 2, ..., e X variabili casuali a valori reali. Si dice che Xn

X per n in media k-esima se

dk(Xn, X) 0 per n , equivalentemente E(|Xn - X|k) 0 per n .

Quando k = 1, diciamo semplicemente che Xn X as n in media; quando k = 2,

si dice che Xn X per n in media quadratica. Questi sono i casi particolari piùimportanti.

49. Usa la disuguaglianza di Ljapunov per mostrare che, se j < k, allora

Xn X per n in media k-esima implica Xn X per n in media j-esima.

La prossima serie di esercizi mostra che la convergenza in media è più forte dellaconvergenza in probabilità.

50. Usa la disuguaglianza di Markov per mostrare che

Xn X per n in media implica Xn X per n in probabilità.

Il contrario non è vero. Inoltre, la convergenza quasi certa non implica la convergenza inmedia k-esima e vicevera. I prossimi due esercizi riportano alcuni controesempi.

Varianza e momenti superiori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect2.html (8 di 9) [22/11/2001 17.46.08]

Page 28: Laboratorio virtuale di probabilità e statistica

51. Supponi che X1, X2, X3, ... sia una successione di variabili casuali indipendenti con

P(Xn = n3) = 1 / n2, P(Xn = 0) = 1 - 1 / n2 per n = 1, 2, ...

Usa il primo lemma di Borel-Cantelli per mostrare che Xn 0 as n conprobabilità 1.

1.

Prova che Xn 0 as n in probabilità.2.

Prova che E(Xn) per n 3.

52. Supponi che X1, X2, X3, ... sia una successione di variabili casuali indipendenti con

P(Xn = 1) = 1 / n, P(Xn = 0) = 1 - 1 / n per n = 1, 2, ...

Usa il secondo lemma di Borel-Cantelli per mostrare che P(Xn = 0 perinfinitamente numerosi n) = 1.

1.

Usa il secondo lemma di Borel-Cantelli per mostrare che P(Xn = 1 perinfinitamente numerosi n) = 1.

2.

Prova che P(Xn non converge per n ) = 1.3.

Prova che Xn 0 per n in media k-esima per ogni k 1.4.

Per tirare le somme, nella seguente tabella il segno di implicazione va da sinistra a destra(con j < k); nessuna altra implicazione vale in generale.

convergenza con probabilità 1convergenza in

probabilitàconvergenza indistribuzioneconvergenza in

media k-esimaconvergenza inmedia j-esima

Argomenti correlati

Per una trattazione affine dal punto di vista statistico, confronta il paragrafo sulla varianzacampionaria nel capitolo sui campioni casuali. La varianza della somma di variabilicasauali può essere capita meglio basandosi su un concetto affine noto come covarianza,che sarà trattato in dettaglio nel prossimo paragrafo.

Laboratorio virtuale > Valore atteso > 1 [2] 3 4 5 6 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Varianza e momenti superiori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect2.html (9 di 9) [22/11/2001 17.46.08]

Page 29: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Valore atteso > 1 2 [3] 4 5 6 7

3. Covarianza e correlazione

Ricordiamo che, calcolando il valore atteso di diverse trasformazioni di una variabilecasuale, possiamo misurare molte interessanti caratteristiche della distribuzione dellavariabile. In questo paragrafo studieremo un valore atteso che misura una particolarerelazione tra due variabili a valori reali. Tale relazione è estremamente importante sia inprobabilità che in statistica.

Definizione

Al solito, iniziamo con l'introdurre un esperimento casuale definito su un certo sapaziocampionario e con misura di probabilità P. Supponiamo che X e Y siano variabili casualia valori reali, relative all'esperimento, con medie E(X), E(Y) e varianze var(X), var(Y)(ipotizzate finite). La covarianza di X e Y è definita come

cov(X, Y) = E{[X - E(X)][Y - E(Y)]}

e (assumendo che le varianze siano positive) la correlazione di X e Y è

cor(X, Y) = cov(X, Y) / [sd(X) sd(Y)].

La correlazione è quindi una versione modificata della covarianza; osserva che i dueparametri hanno sempre lo stesso segno (positivo, negativo o 0). Quando il segno èpositivo, le variabili si dicono positivamente correlate; quando il segno è negativonegativamente correlate; e quando è 0, le variabili si dicono incorrelate. Come il terminestesso suggerisce, la covarianza e la correlazione misurano un certo tipo di dipendenza trale due variabili.

Proprietà

Gli esercizi seguenti individuano alcune proprietà fondamentali della covarianza. Ai finidelle dimostrazioni, il risultato da utilizzare è la linearità dell'operatore valore atteso.

1. Prova che cov(X, Y) = E(XY) - E(X)E(Y)

2. Prova che cov(X, Y) = cov(Y, X).

3. Prova che cov(X, X) = var(X).

4. Prova che cov(aX + bY, Z) = a cov(X, Z) + b cov(Y, Z).

Dall'esercizio 1 si osserva che X e Y sono incorrelati se e solo se

E(XY) = E(X)E(Y).

In particolare, se X e Y sono indipendenti, allora sono incorrelati. Il contrario però non èvero, come mostrato nell'esercizio 11.

Covarianza e correlazione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect3.html (1 di 9) [22/11/2001 17.46.11]

Page 30: Laboratorio virtuale di probabilità e statistica

5. Supponi che Xj, j in J e Yk, k in K siano variabili casuali a valori reali relative a unesperimento e che aj, j in J e bk, k in K siano costanti (J e K sono insiemi finiti di indici).Prova la seguente proprietà (nota come bi-linearità).

cov( j in J aj Xj, k in K bk Yk) = j in J k in K aj bk cov(Xj, Xk).

6. Dimostra che la correlazione tra X e Y è data dalla covarianza dei corrispondentistandard score:

cor(X, Y) = cov{[X - E(X)] / sd(X), [Y - E(Y)] / sd(Y)].

Esercizi numerici

7. Supponi che (X, Y) sia distribuito uniformemente sul quadrato R = {(x, y): -6 < x <6, -6 < y < 6}. Mostra che X e Y sono indipendenti e quindi incorrelati.

8. Nell'esperimento uniforme bivariato, seleziona quadrato dal menu a tendina. Simula1000 replicazioni, aggiornando ogni 10. Nota il valore della correlazione e la forma dellanube di punti della dispersione.

9. Supponi che (X, Y) sia distribuito uniformemente sulla regione triangolare R = {(x,y): -6 < y < x < 6}. Prova che

cor(X, Y) = 1/2.

10. Nell'esperimento uniforme bivariato, seleziona triangolo dal menu a tendina.Simula 1000 replicazioni, aggiornando ogni 10. Nota il valore della correlazione e laforma della nube di punti della dispersione.

11. Supponi che (X, Y) sia distribuito uniformemente sulla regione circolare R = {(x,y): x2 + y2 < 36}. Mostra che X e Y sono dipendenti ma incorrelati.

12. Nell'esperimento uniforme bivariato, seleziona cerchio dal menu a tendina. Simula1000 replicazioni, aggiornando ogni 10. Nota il valore della correlazione e la forma dellanube di punti della dispersione.

13. Supponi che X sia distribuito uniformemente sull'intervallo (-1, 1) e Y = X2. Provache X e Y sono incorrelati anche se Y dipende funzionalmente da X (la forma più forte didipendenza).

14. Si lanciano due dadi equilibrati e si registrano i punteggi (X1, X2). Sia Y = X1 +X2 la somma dei punteggi, U = min{X1, X2} il punteggio minimo e V = max{X1, X2} ilpunteggio massimo. Trova covarianza e correlazione delle seguenti coppie di variabili:

X1, X2.1.

X1, Y.2.

Covarianza e correlazione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect3.html (2 di 9) [22/11/2001 17.46.11]

Page 31: Laboratorio virtuale di probabilità e statistica

X1, U.3.

U, V4.

U, Y5.

15. Supponi che X e Y siano variabili casuali con cov(X, Y) = 3. Trova

cov(2X - 5, 4Y + 2).

16. Supponi che (X, Y) abbia funzione di densità di probabilità f(x, y) = x + y per 0 <x < 1, 0 < y < 1. Trova

cov(X, Y)1.

cor(X, Y).2.

17. Supponi che (X, Y) abbia funzione di densità di probabilità f(x, y) = 2(x + y) per 0< x < y < 1. Trova

cov(X, Y)1.

cor(X, Y).2.

18. Supponi che (X, Y) abbia funzione di densità di probabilità f(x, y) = 6x2y per 0 <x < 1, 0 < y < 1. Trova

cov(X, Y)1.

cor(X, Y).2.

19. Supponi che (X, Y) abbia funzione di densità di probabilità f(x, y) = 15x2y per 0 <x < y < 1. Trova

cov(X, Y)1.

cor(X, Y).2.

Varianza della somma

Mostreremo ora che la varianza di una somma di variabili è la somma delle mutuecovarianze. Supponiamo che Xj, j in J sia una collezione di variabili casuali a valori realirelative all'esperimento, dove J è un insieme finito di indici

20. Usa i risultati degli esercizi 3 e 5 per mostrare che

var[ j in J Xi] = j in J k in K cov(Xj, Xk).

Il risultato dell'esercizio precedente può risultare molto utile; può essere utilizzato peresempio per calcolare la varianza della distribuzione ipergeometrica e la distribuzionedelle concordanze.

21. Supponic che X1, X2, ..., Xn siano a due a due incorrelati (ciò vale in particolare se

Covarianza e correlazione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect3.html (3 di 9) [22/11/2001 17.46.11]

Page 32: Laboratorio virtuale di probabilità e statistica

sono mutualmente indipendenti). Prova che

var(X1 + X2 + ··· + Xn ) = var(X1) + var(X2) + ··· + var(Xn).

22. Prova che var(X + Y) + var(X - Y) = 2 var(X) + 2 var(Y).

23. Supponi che var(X) = var(Y). Prova che X + Y e X - Y sono incorrelati.

24. Supponi che X e Y siano variabili casuali con var(X) = 5, var(Y) = 9, cov(X, Y) =-3. Trova var(2X + 3Y - 7).

25. Supponi che X e Y siano variabili indipendenti con var(X) = 6, var(Y) = 8. Trovavar(3X - 4Y + 5).

26. Supponi che X1, X2, ..., Xn siano indipendenti e abbiano distribuzione identica con

media µ e varianza d2. (Le variabili formano quindi un campione casuale dalladistribuzione comune). Sia Yn = X1 + X2 + ··· + Xn. Prova che

E(Yn) = nµ.1.

var(Yn) = n d2.2.

sd(Yn) = n1/2 d.3.

27. Nel contesto dell'esercizio precedente, sia Mn = Yn / n. Mn è quindi la mediacampionaria. Mostra che

E(Mn) = µ.1.

var(Mn) = d2 / n.2.

sd(Mn) = d / n1/2.3.

var(Mn) 0 per n .4.

P(|Mn - µ| > r) 0 per n per ogni r > 0 (Suggerimento: Usa ladisuguaglianza di Chebyshev).

5.

La parte (e) dell'ultimo esercizio significa che Mn µ per n in probabilità. Sitratta della legge debole dei grandi numeri, uno dei teoremi fondamentali dellaprobabilità.

28. Supponi di lanciare n dadi equilibrati.

Trova media e deviazione standard della somma dei punteggi1.

Trova media e deviazione standard della media dei punteggi2.

29. Nell'applet dadi, seleziona le variabili casuali seguenti. In ciascun caso, aumenta ilnumero di dadi e osserva dimensione e posizione della funzione di densità e della barramedia-deviazione standard. Con n = 20 dadi, simula 1000 replicazioni, aggiornando ogni

Covarianza e correlazione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect3.html (4 di 9) [22/11/2001 17.46.11]

Page 33: Laboratorio virtuale di probabilità e statistica

10, e osserva la convergenza dei momenti empirici ai momenti teorici della distribuzione.

Somma dei punteggi1.

Media dei punteggi2.

30. Supponi che I1, I2, ..., In siano variabili indicatore indipendenti con P(Ij = 1) = pper ogni j. La distribuzione di X = I1 + I2 + ··· + In è binomiale con parametri n e p. Provache

E(X) = np1.

var(X) = np(1 - p).2.

Eventi

Supponi che A e B siano eventi di un esperimento casuale. La covarianza e la correlazionedi A e B sono definire come covarianza e correlazione delle loro rispettive variabilicasuali indicatore IA e IB.

31. Prova che

cov(A, B) = P(A B) - P(A)P(B)1.

cor(A, B) = [P(A B) - P(A)P(B)] / [P(A)P(B)P(Ac)P(Bc)]1/2.2.

Nota in particolare che A e B sono rispettivamente positivamente correlate,negativamente correlate o indipendenti (come definito nel paragrafo sulla probabilitàcondizionata) se e solo se le variabili indicatore di A e B sono positivamente correlate,negativamente correlate o indipendenti, come definito in questo paragrafo.

32. Prova che

cov(A, Bc) = -cov(A, B)1.

cov(Ac, Bc) = cov(A, B)2.

33. Supponi che A B. Prova che

cov(A, B) = P(A)P(Bc)1.

cor(A, B) = [P(A)P(Bc) / P(B)P(Ac)]1/2.2.

34. Supponi che A e B siano eventi di un esperimento con P(A) = 1/2, P(B) = 1/3, P(A

B) = 1/8. Trova covarianza e correlazione tra A e B.

Il miglior predittore lineare

Quale funzione lineare di X è più vicina a Y nel senso che minimizza l'errore quadraticomedio? La questione riveste importanza fondamentale nel caso in cui la variabile casualeX (la variabile predittore) è osservabile mentre Y (la variabile risposta) non lo è. Lafunzione lineare può essere utilizzate per stimare Y a partire dai valori osservati di X. Lasoluzione mostrerà inoltre che covarianza e correlazione misurano la relazione lineare traX e Y. Per evitare i casi triviali, assumiamo che var(X) > 0 e var(Y) > 0.

Covarianza e correlazione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect3.html (5 di 9) [22/11/2001 17.46.11]

Page 34: Laboratorio virtuale di probabilità e statistica

35. Prova che

E{[Y - (aX + b)]2} = var(Y) + [E(Y)]2 + a2 {var(X) + [E(X)]2} +●

b2 -2a[cov(X, Y) + E(X)E(Y)] + 2ab E(X) - 2b E(Y)●

36. Usa le tecniche di analisi per mostrare che E{[Y - (aX + b)]2} è minimo quando

a = cov(X, Y) / var(X)1.

b = E(Y) - a E(X)2.

Il miglior predittore lineare di Y da X è quindi

Y* = E(Y) + [cov(X, Y) / var(X)][X - E(X)].

37. Prova che l'errore quadratico medio minimo, tra tutte le funzione lineari di X, è

E[(Y - Y*)2] = var(Y)[1 - cor2(X, Y)].

38. Sulla base dell'ultimo esercizio, mostra che

-1 cor(X, Y) 11.

-sd(X) sd(Y) cov(X, Y) sd(X) sd(Y)2.

cor(X, Y) = 1 se e solo se Y = aX + b con probabilità 1 per costanti a > 0 e b.3.

cor(X, Y) = -1 se e solo se Y = aX + b con probabilità 1 per costanti a < 0 e b.4.

Questi esercizi mostrano chiaramente che cov(X, Y) e cor(X, Y) misurano l'associazionelineare tra X e Y.

Ricordiamo che il miglior predittore lineare constante di Y, nel senso di minimizzarel'errore quadratico medio, è E(Y) e che il valore minimo dell'errore quadratico medio ditale predittore è var(Y). Pertanto la differenza tra var(Y) e l'errore quadratico mediodell'esercizio 35 è la riduzione della varianza di Y che si ottiene aggiungendo al predittoreil termine lineare X.

39. Prova che var(Y) - E[(Y - Y*)2] = var(Y)cor2(X, Y).

La frazione di riduzione è cor2(X, Y), e questa quantità è detta coefficiente dideterminazione (della distribuzione). La retta

y = E(Y) + [cov(X, Y) / var(X)][x - E(X)]

è detta retta di regressione (della distribuzione) per Y da X. Osserva che la retta diregressione passa da (E(X), E(Y)), centro della distribuzione congiunta. In ogni caso, lascelta della variabile predittore e della variabile risposta è cruciale.

40. Mostra che la retta di regressione di Y da X e la retta di regressione di X da Y noncoincidono, eccettuato il caso triviale in cui le variabili sono perfettamente correlate.

41. Supponi che (X, Y) abbia funzione di densità di probabilità f(x, y) = x + y for 0 <x < 1, 0 < y < 1.

Covarianza e correlazione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect3.html (6 di 9) [22/11/2001 17.46.11]

Page 35: Laboratorio virtuale di probabilità e statistica

Trova il miglior predittore lineare di Y da X.1.

Trova il miglior predittore lineare di X da Y.2.

Trova il coefficiente di determinazione.3.

42. Supponi che (X, Y) abbia funzione di densità di probabilità f(x, y) = 2(x + y) per 0< x < y < 1.

Trova il miglior predittore lineare di Y da X.1.

Trova il miglior predittore lineare di X da Y.2.

Trova il coefficiente di determinazione.3.

43. Supponi che (X, Y) abbia funzione di densità di probabilità f(x, y) = 6x2y per 0 <x < 1, 0 < y < 1.

Trova il miglior predittore lineare di Y da X.1.

Trova il miglior predittore lineare di X da Y.2.

Trova il coefficiente di determinazione.3.

44. Supponi che (X, Y) abbia funzione di densità di probabilità f(x, y) = 15x2y per 0 <x < y < 1.

Trova il miglior predittore lineare di Y da X.1.

Trova il miglior predittore lineare di X da Y.2.

Trova il coefficiente di determinazione.3.

45. Si lanciano due dadi equilibrati e si registra la sequenza di punteggi (X1, X2). SiaY = X1 + X2 la somma dei punteggi, U = min{X1, X2} il punteggio minimo e V =max{X1, X2} il punteggio massimo.

Trova il miglior predittore lineare di Y da X1.1.

Trova il miglior predittore lineare di U da X1.2.

Trova il miglior predittore lineare di V da X1.3.

46. Supponi che A e B siano eventi di un esperimento casuale con 0 < P(A) < 1 e 0 <P(B) < 1. Dimostra che

A e B hanno correlazione 1 se e solo se P(A Bc) = 0 e P(B Ac) = 0 (OvveroA = B con probabilità 1).

1.

A e B hanno correlazione -1 se e solo se P(A B) = 0 e P(Bc Ac) = 0 (OvveroA = Bc con probabilità 1).

2.

Il corrispondente problema statistico della stima di a e b, quando i parametri delladistribuzione dell'esercizio 34 sono ignoti è analizzato nel paragrafo su covarianza ecorrelazione campionaria. Una generalizzazione naturale del problema che stiamoconsiderando è trovare la funzione di X (utilizzando tutte le funzioni possibili, non soloquelle lineari) che si avvicina di più a Y nel senso di minimizzare l'errore quadratico

Covarianza e correlazione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect3.html (7 di 9) [22/11/2001 17.46.11]

Page 36: Laboratorio virtuale di probabilità e statistica

medio. La soluzione verrà ricavata nel paragrafo sul valore atteso condizionato.

Prodotto interno

La covarianza è strettamente impartentata con concetti fondamentali nella teoria deglispazi vettoriali. Tale collegamento può essere utile per esaminare da un diverso punto divista molte delle proprietà della covarianza. In primo luogo, se X e Y sono variabilicasuali a valori reali, definiamo il prodotto interno e X e Y come

<X, Y> = E(XY).

Gli esercizi seguenti sono versioni analoghe delle proprietà della covarianza riportatesopra, e mostrano che tale definizione individua in relatà un prodotto interno sullo spaziovettoriale delle variabili casuali con momento secondo finito. (Al solito, diciamoidentifiche due variabili casuali che coincidono con probabilità 1).

47. Prova che <X, Y> = <Y, X>.

48. Prova che <X, X> 0.

49. Prova che <X, X> = 0 se e solo se P(X = 0) = 1.

50. Prova che <aX, Y> = a <X, Y>.

51. Prova che <X, Y + Z> = <X, Z> + <Y, Z>

Covarianza e correlazione possono essere semplicemente espresse in termini di questoprodotto interno.

52. Prova che cov(X, Y) = <X - E(X), Y - E(Y)>.

53. Prova che cor(X, Y) = <[X - E(X)] / sd(X), [Y - E(Y)] / sd(Y)>.

Quindi la covarianza di X e Y è il prodotto interno delle corrispondenti variabili centrate.La correlazione di X e Y, invece, è il prodotto interno dei corrispondenti standard score.

La norma associata al prodotto interno è la 2-norma studiata nel paragrafo precedente.Tale risultato è la ragione per cui la 2-norma ha un ruolo fondamentale e speciale; tra tuttele k-norme, solo la 2-norma corrisponde al prodotto interno.

54. Prova che <X, X> = ||X||22 = E(X2).

Osserva che il miglior predittore lineare di Y da X derivato poc'anzi è semplicemente laproiezione di Y sul sottospazio delle variabili casuali della forma aX + b, dove a e b sononumeri reali.

Il prossimo esercizio riporta la disuguaglianza di Hölder, detta così in onore di OttoHölder.

55. Supponi che j, k >1 con 1 / j + 1 / k = 1. Prova che <|X|, |Y|> ||X||j ||Y||k.

Covarianza e correlazione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect3.html (8 di 9) [22/11/2001 17.46.11]

Page 37: Laboratorio virtuale di probabilità e statistica

Prova che g(x, y) = x1/j y1/k è concava su {(x, y) in R2: x 0, y 0}.1.

Usa (a) e la disuguaglianza di Jensen per dimostrare che, se U e V sono variabili

casuali non negatice, allora E(U1/j V1/k) [E(U)]1/j [E(V)]1/k.

2.

In (c), poni U = |X|j, V = |Y|k.3.

Nel contesto dell'esercizio precedente, j, k si dicono esponenti coniugati. Se poniamo j = k= 2 nella disuguaglianza di Hölder si ottiene la disuguaglianza di Cauchy-Schwarz, cosìdetta in onore di Augustin Cauchy e Karl Schwarz. Di nuovo , si tratta di unadisuguaglianza equivalente a quella dell'esercizio 36.

E(|XY|) [E(X2)]1/2 [E(Y2)]1/2.

56. Supponi che (X, Y) abbia funzione di densità f(x, y) = x + y per 0 < x < 1, 0 < y <1. Verifica disuguaglianza di Hölder nei casi seguenti:

j = k = 21.

j = 3, k = 3 / 2.2.

57. Supponi che j e k siano esponenti coniugati.

Prova che k = j / (j - 1).1.

Prova che k decresce a 1 per j che tende a .2.

L'esercizio seguente presenta un risultato analogo a quello dell'esercizio 22.

58. Prova la regola del parallelogramma:

||X + Y||22 + ||X - Y||22 = 2||X||22 + 2||Y||22.

L'esercizio seguente presenta un risultato analogo a quello dell'esercizio 21.

59. Prova il teorema di Pitagora, scoperto ovviamente da Pitagora: se X1, X2, ..., Xnsono variabili casuali con <Xi, Xj> = 0 per i e j distinti, allora

||X1 + X2 + ··· + Xn ||22 = ||X1||22 + ||X2||22 + ··· + ||Xn||22.

Laboratorio virtuale > Valore atteso > 1 2 [3] 4 5 6 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Covarianza e correlazione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect3.html (9 di 9) [22/11/2001 17.46.11]

Page 38: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Valore atteso > 1 2 3 [4] 5 6 7

4. Funzioni generatrici

Al solito, iniziamo con l'introdurre un esperimento casuale definito su un certo sapaziocampionario e con misura di probabilità P. Una funzione generatrice di una variabilecasuale è il valore atteso di una certa trasformazione della variabile. Tutte le funzionigeneratrici posseggono tre importanti proprietà:

Sotto condizioni blande, la funzione generatrice individua completamente ladistribuzione.

1.

La funzione generatrice della somma di variabili indipendenti è il prodotto dellefunzioni generatrici.

2.

I momenti della variabile casuale possono essere ottenuti a partire dalle derivatedella funzione generatrice.

3.

La proprietà 2 è usata di frequente per determinare la distribuzione di una somma divariabili indipendenti. Al contrario, ricordiamo che la funzione di densità di probabilità diuna somma di variabili indipendenti è la convoluzione delle funzioni di densitàindividuali, operazione molto più complessa.

La funzione generatrice di probabilità

Supponiamo che N sia una variabile casuale a valori in {0, 1, 2, ...}. La funzionegeneratrice di probabilità G di N è definita come

G(t) = E(tN).

Sia f la funzione di densità di probabilità di N, cosicché f(n) = P(N = n) per n = 0, 1, 2, ...Gli esercizi seguenti individuano le proprietà principali.

1. Prova che G(t) = n = 0, 1, ... f(n) tn.

G(t) è quindi una serie di potenze in t, coi valori della funzione di densità di probabilitàche fanno da coefficienti. Ricorda che, sulla base dei risultati di analisi, esiste un r tale chela serie converge assolutamente per |t| < r e diverge per |t| > r. Il numero r è detto raggio diconvergenza della serie.

2. Prova che G(1) = 1 e quindi r 1.

Ricorda, dall'analisi, che una serie di potenze può essere derivata termine a termine,esattamente come un polinomio. Ciascuna serie di derivate ha lo stesso raggio diconvergenza della serie originale.

3. Prova che f(n) = G(n)(0)/n! per n = 0, 1, 2, ...

Dall'esercizio 3, nota che G individua completamente la distribuzione di N.

Funzioni generatrici

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect4.html (1 di 6) [22/11/2001 17.46.14]

Page 39: Laboratorio virtuale di probabilità e statistica

4. Mostra che P(N è pari) = [1 + G(-1)] / 2.

5. Sia r > 1. Dimostra che G(k)(1) = E[(N)k] dove

(N)k = N(N - 1) ··· (N - k + 1).

I momenti dell'esercizio 5 si dicono momenti fattoriali.

6. Mostra che var(N) = G(2)(1) + G(1)(1) - [G(1)(1)]2.

7. Supponi che N1 e N2 siano indipendenti e con funzione generatrice di probabilitàrispettivamente G1 e G2. Dimostra che la funzione generatrice di probabilità di N1 + N2 è

G(t) = G1(t)G2(t).

8. Supponi che I sia una variabile indicatore con P(I = 1) = p. Mostra che

G(t) = 1 - p + pt per ogni t.

9. Supponi che N abbia funzione di densità P(N = k) = C(n, k) pk (1 - p)n-k, per k = 0,1, ..., n. dove n appartenente a {1, 2, ...} e p appartenente a (0, 1) sono parametri. Si haallora una distribuzione binomiale con parametri n e p. Dimostra che

G(t) = (1 - p + pt)n.a.

E(N) = npb.

var(N) = np(1 - p)c.

P(N è pari) = [1 + (1 - 2p)n] / 2d.

10. Usa i risultati dei due esercizi precedenti per mostrare che, se I1, I2, ... In sonovariabili indicatore indipendenti con parametro p, allora N = I1 + I2 + ··· + In hadistribuzione binomiale con parametri n e p.

11. Supponi che N abbia funzione di densità P(N = n) = (1 - p)n-1 p per n = 1, 2, ...dove p appartenente a (0, 1) è un parametrro. Si tratta della distribuzione geometrica conparametro p. Prova che

G(t) = tp / [1 - t(1 - p)] for t < 1 / (1 - p).a.

E(N) = 1 / p.b.

var(N) = (1 - p) / p2.c.

P(N è pari) = (1 - p) / (2 - p).d.

12. Supponi che N abbia funzione di densità P(N = n) = e-a an / n! per n = 0, 1, 2, ...,dove a > 0 è un parametrro. Si tratta della distribuzione di Poisson con parametro a.Mostra che

G(t) = exp[a(t - 1)] for any t.a.

E(N) = ab.

Funzioni generatrici

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect4.html (2 di 6) [22/11/2001 17.46.14]

Page 40: Laboratorio virtuale di probabilità e statistica

var(N) = ac.

P(N è pari) = [1 + exp(-2a)] / 2.d.

La funzione generatrice dei momenti

Sia X una variabile casuale a valori in un sottinsieme di R. La funzione generatrice deimomenti di X è la funzione M definita da

M(t) = E[exp(tX)] for t R.

Nota che, poiché exp(tX) è una variabile casuale non negativa, M(t) esiste, come numeroreale o infinito positivo, per ogni t.

La funzione generatrice dei momenti possiede molte delle proprietà della funzionegeneratrice di probabilità, ma è definita per un insieme più ampio di variabili casuali. Leproprietà fondamentali, che assumiamo senza dimostrarle, sono le seguenti: se M(t) èfinita per t in un intervallo aperto J attorno a 0, allora

M individua completamente la distribuzione di X.1.

M ha derivate di ogni ordine in J e M(n)(t) = E[Xn exp(tX)] per t appartenente a J.2.

Negli esercizi seguenti, assumi che le funzioni generatrici dei momenti siano finite in unintorno di 0.

13. Prova che M(n)(0) = E(Xn) per ogni intero non negativo n.

Pertanto le derivate della funzione generatrice dei momenti in 0 determinano i momentidella variabile (di qui il nome).

14. Supponi che X sia una variabile casuale con funzione generatrice dei momenti M eche a e b siano costanti. Dimostra che la funzione generatrice dei momenti di aX + b è

R(t) = exp(bt) M(at).

15. Supponi che X1 e X2 siano variabili casuali indipendenti, con funzioni generatricidei momenti M1 e M2. Prova che la funzione generatrice dei momenti di X1 + X2 è

M(t) = M1(t) M2(t).

16. Supponi che N sia una variabile casuale a valori in {0, 1, 2, ...}, con funzionegeneratrice di probabilità G. Prova che la funzione generatrice dei momenti di N is

M(t) = G(et).

17. Supponi che X abbia distribuzione uniforme su (a, b). Mostra che

M(t) = [exp(tb) - exp(ta)] / [t(b - a)] se t 0; M(0) = 1.1.

E(Xn) = (bn + 1 - an + 1) / [(n + 1)(b - a)]2.

18. Supponi che X abbia funzione di densità f(x) = r exp(-rx) per x > 0, dove r > 0 è unparametro (ciò individua la distribuzione esponenziale con parametro di velocità r). Prova

Funzioni generatrici

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect4.html (3 di 6) [22/11/2001 17.46.14]

Page 41: Laboratorio virtuale di probabilità e statistica

che

M(t) = r / (r - t) per t < r.a.

E(Xn) = n! / rn.b.

19. Supponi che Z abbia funzione di densità f(z) = exp(-z2 / 2) / (2 pi)1/2 per zappartenente a R. Si tratta quindi di una distribuzione normale standardizzata. Prova che

M(t) = exp(t2 / 2) per t appartenente a R.1.

E(Z2n) = (2n)! / [n!2n] per n = 0, 1, ...2.

E(Z2n + 1) = 0 per n = 0, 1, ...3.

L'esercizio seguente riporta esempi di distribuzioni per le quali la funzione generatrice deimomenti è infinita.

20. Supponi che X abbia densità f(x) = a / xa + 1 per x > 1, dove a > 0 è un parametro.Si tratta della distribuzione di Pareto con parametro di forma a.

Mostra che M(t) = per ogni t > 0 e a > 0.a.

Prova che E(Xn) < se e solo se a > n.b.

Controesempi

Nell'ultimo esercizio abbiamo considerato una distribuzione per la quale solo alcuni deimomenti sono finiti; ovviamente, la funzione generatrice dei momenti era infinita. Inquesta sezione, riportiamo un esempio di una distribuzione per la quale tutti i momentisono finiti, ma la funzione generatrice dei momenti è comunque infinita. Inoltre, vedremodue distribuzioni distinti che hanno i momenti di tutti gli ordini uguali.

Supponi che Z abbia distribuzione normale standardizzata, e sia X = exp(Z). Ladistribuzione di X è detta lognormale.

21. Usa la formula del cambiamento di variabile per dimostrare che X ha funzione didensità

f(x) = exp[-ln2(x) / 2] / [(2 )1/2 x] per x > 0.

22. Usa la funzione generatrice dei momenti della distribuzione normale standardizzataper mostrare che X ha momenti di ogni ordine finiti

E(Xn) = exp(n2 / 2) per n = 1, 2, ...

23. Dimostra che la funzione generatrice dei momenti di X è infinita per ogni numeropositivo:

E[exp(tX)] = per t > 0.

24. Sia g(x) = f(x) {1 + sin[2 ln(x)]} per x > 0. Prova che g è una funzione di densitàdi probabilità.

Funzioni generatrici

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect4.html (4 di 6) [22/11/2001 17.46.14]

Page 42: Laboratorio virtuale di probabilità e statistica

25. Poni che Y abbia funzione di densità g nell'esercizio precedente. Prova che Y hagli stessi momenti di X:

E(Yn) = exp(n2 / 2) for n = 1, 2, ...

I grafici di f e g sono riportati qui sotto, rispettivamente in blu e rosso.

I limiti di Chernoff

26. Supponi che X sia una variabile casuale con funzione generatrice dei momenti M.Prova i limiti di Chernoff:

P(X x) exp(-tx) M(t) per ogni t > 01.

P(X x) exp(-tx) M(t) per ogni t < 02.

Suggerimento: Mostra che P(X x) = P[exp(tX) exp(tx)] se t > 0 e P(X x) =

P[exp(tX) exp(tx)] se t < 0. Poi usa la disuguaglianza di Markov.

Ovviamente, il miglior limite di Chernoff (in (a) o (b)) si ottiene trovando il t cheminimizza exp(-tx) M(t).

27. Supponi che N abbia distribuzione di Poisson con parametro a > 0. Usa i limiti diChernoff per provare che, se n > a, allora

P(N n) exp(n - a) (a / n)n.

La funzione generatrice dei momenti congiunta

Supponiamo ora che (X1, X2) sia un vettore casuale relativo a un esperimento, a valori in

Funzioni generatrici

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect4.html (5 di 6) [22/11/2001 17.46.14]

Page 43: Laboratorio virtuale di probabilità e statistica

un sottinsieme di R2. La funzione generatrice dei momenti (congiunta) di (X1, X2) èdefinita come

M(s, t) = E[exp(sX1 + tX2)] per s, t R.

Di nuovo, una cosa importante da notare è che se la funzione generatrice dei momenti èfinita in un rettangolo aperto contenente (0, 0), allora tale funzione individuacompletamente la distribuzione di (X1, X2).

Siano M1, M2 e M+ la funzione generatrice dei momenti rispettivamente di X1, X2, andX1 + X2.

28. Prova che M(s, 0) = M1(s)

29. Prova che M(0, t) = M2( t)

30. Prova che M(t, t) = M+(t)

31. Prova che X1 e X2 sono indipendenti se e solo se

M(s, t) = M1(s) M2( t) per (s, t) in un rettangolo attorno a (0, 0).

Ovviamente tali risultati hanno omologhi nel caso multivariato generale. Solo lanotazione si fa più complessa.

32. Supponi che (X, Y) sia distribuito uniformemente sul triangolo {(x, y): 0 < x < y <1}.

Trova la funzione generatrice dei momenti congiunta.1.

Trova la funzione generatrice dei momenti di X.2.

Trova la funzione generatrice dei momenti di Y.3.

Trova la funzione generatrice dei momenti di X + Y.4.

33. Supponi che (X, Y) abbia funzione di densità f(x, y) = x + y per 0 < x < 1, 0 < y <1.

Trova la funzione generatrice dei momenti congiunta.1.

Trova la funzione generatrice dei momenti di X.2.

Trova la funzione generatrice dei momenti di Y.3.

Trova la funzione generatrice dei momenti di X + Y.4.

Laboratorio virtuale > Valore atteso > 1 2 3 [4] 5 6 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Funzioni generatrici

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect4.html (6 di 6) [22/11/2001 17.46.14]

Page 44: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Valore atteso > 1 2 3 4 [5] 6 7

5. Valore atteso condizionato

Al solito, iniziamo con l'introdurre un esperimento casuale definito su un certo sapaziocampionario e con misura di probabilità P. Supponiamo che X sia una variabile casuale avalori in un insieme S e che Y sia una variabile casuale a valori in un sottinsieme T di R.In questo paragrafo studieremo il valore atteso condizionato di Y dato X, un concetto diimportanza fondamentale sia in probabilità che in statistica. Coma avremo modo divedere, il valore atteso di Y dato X è la funzione di X che meglio approssima Y in mediaquadratica. Notiamo che, in generale, X sarà un vettore.

Un'assunzione tecnica che facciamo è che tutte le variabili casuali che si presentano nelvalore atteso abbiano momento secondo finito.

La definizione elementare

Notiamo che possiamo pensare (X, Y) come variabile casuale a valori nel sottinsieme S ×T. Supponiamo in primo luogo che (X, Y) abbia distribuzione continua con funzione didensità f. Ricordiamo che la densità marginale g di X è data da

g(x) = T f(x, y)dy per x S.

e che la densità condizionata di Y dato X = x è data da

h(y | x) = f(x, y) / g(x), per x S, y T.

Infine, il valore atteso condizionato di Y dato X = x è semplicemente la media calcolatarelativamente alla distribuzione condizionata:

E(Y | X = x) = T y h(y | x)dy.

Ovviamente, la media condizionata di Y dipende dal dato valore x di X. Per ora, sia u lafunzione da S in R definita da

u(x) = E(Y | X = x) per x S.

La funzione u è detta a volte funzione di regressione. La variabile casuale u(X) è dettavalore atteso condizionato di Y dato X ed è indicata con E(Y | X).

La definizione generale

La variabile casuale E(Y | X) soddisfa una porprietà fondamentale che la caratterizza tratutte le funzioni di X.

1. Supponi che r sia una funzione da S in R. Usa il teorema del cambiamento di

Valore atteso condizionato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect5.html (1 di 9) [22/11/2001 17.46.18]

Page 45: Laboratorio virtuale di probabilità e statistica

variabie per il valore atteso per mostrare che

E[r(X)E(Y | X)] = E[r(X)Y].

Il risultato dell'esercizio 1 varrebbe anche nel caso in cui (X, Y) avesse distribuzionecongiunta discreta; la formula sarebbe la stessa, ma con le sommatorie al posto degliintegrali.

In realtà il risultato dell'esercizio 1 può essere utilizzato come definizione del valoreatteso condizionato, indipendentemente dalla distribuzione congiunta di (X, Y). Quindi, ingenerale, si definisce E(Y | X) come la variabile casuale che soddisfa la condizionedell'esercizio 1 ed è della forma E(Y | X) = u(X) per qualche funzione u da S in R.Definiamo quindi E(Y | X = x) come u(x).

Proprietà

La prima conseguenza dell'esercizio 1 è una forma molto compatta ed elegante per lalegge delle probabilità totali:

2. Prendendo r come la funzione costante a 1 nell'esercizio, prova che

E[E(Y | X)] = E(Y).

3. Prova che, alla luce dell'esercizio 2, la condizione dell'esercizio 1 può essereriespressa come segue: per ogni funzione r da S in R, Y - E(Y | X) e r(X) sono incorrelati.

Il prossimo esercizio prova che la condizione dell'esercizio 1 caratterizza E(Y | X).

4. Supponi che u(X) e v(X) soddisfino la condizione dell'esercizio 1 e quindi anche irisultati degli esercizi 2 e 3. Mostra che

var[u(X) - v(X)] = 0.1.

u(X) = v(X) (con probabilità 1).2.

5. Supponi che s sia una funzione da S in R. Usa la caratterizzazione dell'esercizio 1per mostrare che

E[s(X)Y | X] = s(X)E(Y | X).

La regola seguente generalizza il risultato dell'esercizio 5 ed è detta a volte regola disostituzione per il valore atteso condizionato.

6. Supponi che s sia una funzione da S × T in R. Prova che

E[s(X, Y) | X = x] = E[s(x, Y) | X = x].

7. Supponi che X e Y siano indipendenti. Usa la caratterizzazione dell'esercizio 1 permostrare che

E(Y | X) = E(Y).

Usa la definizione generale per ricavare le proprietà degli esercizi seguenti, dove Y e Z

Valore atteso condizionato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect5.html (2 di 9) [22/11/2001 17.46.18]

Page 46: Laboratorio virtuale di probabilità e statistica

sono variabili casuali a valori reali. Nota che si tratta di proprietà omologhe a quelle delvalore atteso ordinario

8. Prova che E(Y + Z | X) = E(Y | X) + E(Z | X).

9. Prova che E(cY | X) = cE(Y | X).

10. Prova che se Y 0 allora E(Y | X) 0.

11. Prova che se Y Z allora E(Y | X) E(Z | X).

12. Prova che |E(Y | X)| E(|Y| | X).

Esercizi

13. Supponi che (X, Y) sia distribuito uniformemente sul quadrato R = {(x, y): -6 < x< 6, -6 < y < 6}. Trova E(Y | X).

14. Nell'esperimento bivariato uniforme, seleziona quadrato dal menu a tendina.Simula 2000 replicazioni, aggiornando ogni 10. Nota la relazione tra la nube di punti e ilgrafico della funzione di regressione.

15. Supponi che (X, Y) sia distribuito uniformemente sul triangolo R = {(x, y): -6 < y< x < 6}. Trova E(Y | X).

16. Nell'esperimento bivariato uniforme, seleziona triangolo dal menu a tendina.Simula 2000 replicazioni, aggiornando ogni 10. Nota la relazione tra la nube di punti e ilgrafico della funzione di regressione.

17. Supponi che (X, Y) abbia funzione di densità di probabilità f(x, y) = x + y per 0 <x < 1, 0 < y < 1. Trova

E(Y | X)1.

E(X | Y)2.

18. Supponi che (X, Y) abbia funzione di densità di probabilità f(x, y) = 2(x + y) per 0< x < y < 1. Trova

E(Y | X)1.

E(X | Y)2.

19. Supponi che (X, Y) abbia funzione di densità di probabilità f(x, y) = 6x2y per 0 <x < 1, 0 < y < 1. Trova

E(Y | X)1.

E(X | Y)2.

20. Supponi che (X, Y) abbia funzione di densità di probabilità f(x, y) = 15x2y per 0 <

Valore atteso condizionato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect5.html (3 di 9) [22/11/2001 17.46.18]

Page 47: Laboratorio virtuale di probabilità e statistica

x < y < 1. Trova

E(Y | X)1.

E(X | Y)2.

21. Si lanciano due dadi equilibrati e si registrano i punteggi (X1, X2). Sia Y = X1+ X2la somma dei punteggi U = min{X1, X2} il punteggio minimo. Trova:

E(Y | X1)1.

E(U | X1)2.

E(Y | U)3.

E(X2| X1)4.

22. Supponi che X, Y e Z siano variabili casuali con E(Y | X) = X3, E(Z | X) = 1 / (1 +X2). Trova

E[exp(X) Y - sin(X) Z | X].

Probabilità condizionata

La probabilità condizionata di un evento A, dato un vettore casuale X, è un casoparticolare del valore atteso condizionato. Definiamo

P(A | X) = E(IA | X) dove IA è la variabile indicatore di A.

Le proprietà presentate in precedenza relativamente al valore atteso condizionato hanno,ovviamente, omolghe specifiche per la probabilità condizionata. In particolare, l'esercizioseguente riporta una versione particolare della legge delle probabilità totali:

23. Prova che P(A) = E[P(A | X)].

24. Una scatola contiene 10 monete, indicate con numeri da 0 a 9. La probabilità ditesta per la moneta i è i / 9. Si estrae casualmente una moneta dalla scatola e la si lancia.Trova la probabilità che esca testa. Questo problema è un esempio della regola dellasuccessione di Laplace,

Il miglior predittore

I prossimi due esercizi mostrano che, tra tutte le funzioni di X, E(Y | X) è il migliorpredittore di Y, nel senso che minimizza l'errore quadratico medio. Tale risultato è diimportanza fondamentale nei problemi statistici in cui il vettore predittore X può essereosservato, mentre la variabile di risposta Y no.

25. Sia u(X) = E(Y | X) e sia v(X) ogni altra funzione di X. Aggiungendo e sottraendou(X), espandendo e utilizzando il risultato dell'esercizio 3, mostra che

E[(Y - v(X))2] = E[(Y - u(X))2] + E[(u(X) - v(X))2].

Valore atteso condizionato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect5.html (4 di 9) [22/11/2001 17.46.18]

Page 48: Laboratorio virtuale di probabilità e statistica

26. Usa il risultato dell'ultimo esercizio per mostrare che, se v è funzione da S in R,allora

E{[E(Y | X) - Y]2} E{[v(X) - Y)2]

e l'uguaglianza vale se e solo se v(X) = E(Y | X) (con probabilità 1).

Supponi che X sia a valori reali. Nel paragrafo su covarianza e correlazione, abbiamovisto che il miglior predittore lineare di Y da X è

Y* = aX + b dove a = cov(X, Y) / var(X) e b = E(Y) - a E(X).

D'altro canto, E(Y | X) è il miglior predittore di Y tra tutte le funzioni di X. Segue che, seE(Y | X) è funzione lineare di X, allora E(Y | X) deve coincidere con Y*.

27. Utilizzando le proprietà del valore atteso condizionato, dimostra direttamente che,se E(Y | X) = aX + b, Allora a e b sono quelle date nella definizione di Y*.

28. Supponi che (X, Y) abbia funzione di densità f(x, y) = x + y per 0 < x < 1, 0 < y <1.

Trova Y*, miglior predittore lineare di Y da X.1.

Trova E(Y | X)2.

Disegna il grafico di Y*(x) e E(Y | X = x), in funzione di x, sullo stesso asse.3.

29. Supponi che (X, Y) abbia funzione di densità f(x, y) = 2(x + y) per 0 < x < y < 1.

Trova Y*, miglior predittore lineare di Y da X.1.

Trova E(Y | X)2.

Disegna il grafico di Y*(x) e E(Y | X = x), in funzione di x, sullo stesso asse.3.

30. Supponi che (X, Y) abbia funzione di densità f(x, y) = 6x2y per 0 < x < 1, 0 < y <1.

Trova Y*, miglior predittore lineare di Y da X.1.

Trova E(Y | X)2.

Disegna il grafico di Y*(x) e E(Y | X = x), in funzione di x, sullo stesso asse.3.

31. Supponi che (X, Y) abbia funzione di densità f(x, y) = 15x2y per 0 < x < y < 1.

Trova Y*, miglior predittore lineare di Y da X.1.

Trova E(Y | X)2.

Disegna il grafico di Y*(x) e E(Y | X = x), in funzione di x, sullo stesso asse.3.

L'errore quadratico medio del predittore E(Y | X) sarà studiato più avanti.

Varianza condizionata

La varianza condizionata di Y data X è naturalmente definita come segue:

Valore atteso condizionato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect5.html (5 di 9) [22/11/2001 17.46.18]

Page 49: Laboratorio virtuale di probabilità e statistica

var(Y | X) = E{[Y - E(Y | X)]2 | X}.

32. Mostra che var(Y | X) = E(Y2 | X) - [E(Y | X)]2.

33. Mostra che var(Y) = E[var(Y | X)] + var[E(Y | X)].

Torniamo allo studio dei predittori della variabile casuale a valori reali Y, e confronta i trepredittori che abbiamo analizzato in termini di errore quadratico medio. In primo luogo, ilmiglior predittore costante di Y è

µ = E(Y),

con errore quadratico medio var(Y) = E[(Y - µ)2].

Poi, se X è un'altra variabile casuale a valori reali, allora, come abbiamo mostrato nelparagrafo su covarianza e correlazione, il miglior predittore lineare di Y da X è

Y* = E(Y) + [cov(X, Y) / var(X)][X - E(X)],

con errore quadratico medio E[(Y - Y*)] = var(Y)[1 - cor2(X, Y)].

Infine, se X è una generica variabile casuale, allora, come abbiamo mostrato in questoparagrafo, il miglior predittore globale di Y da X è

E(Y | X)

con errore quadratico medio E[var(Y | X)] = var(Y) - var[E(Y | X)].

34. Supponi che (X, Y) abbia funzione di densità f(x, y) = x + y per 0 < x < 1, 0 < y <1. Continua l'esercizio 28 trovando

var(Y)1.

var(Y)[1 - cor2(X, Y)]2.

var(Y) - var[E(Y | X)]3.

35. Supponi che (X, Y) abbia funzione di densità f(x, y) = 2(x + y) per 0 < x < y < 1.Continua l'esercizio 29 trovando

var(Y)1.

var(Y)[1 - cor2(X, Y)]2.

var(Y) - var[E(Y | X)]3.

36. Supponi che (X, Y) abbia funzione di densità f(x, y) = 6x2y per 0 < x < 1, 0 < y <1. Continua l'esercizio 30 trovando

var(Y)1.

var(Y)[1 - cor2(X, Y)]2.

var(Y) - var[E(Y | X)]3.

37. Supponi che (X, Y) abbia funzione di densità f(x, y) = 15x2y per 0 < x < 1, 0 < y <

Valore atteso condizionato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect5.html (6 di 9) [22/11/2001 17.46.18]

Page 50: Laboratorio virtuale di probabilità e statistica

1. Continua l'esercizio 31 trovando

var(Y)1.

var(Y)[1 - cor2(X, Y)]2.

var(Y) - var[E(Y | X)]3.

38. Supponi che X sia distribuita uniformemente su (0, 1), e che, dato X, Y siadistribuita uniformemente su (0, X). Trova

E(Y | X)1.

var(Y | X)2.

var(Y)3.

Somme casuali di variabili

Supponiamo che X1, X2, ... siano variabili casuali a valori reali indipendenti eidenticamente distribuite. Indichiamo le comuni media, varianza e funzione generatricedei momenti come segue:

a = E(Xi), b2 = var(Xi), M(t) = E[exp(tXi)].

Supponiamo inoltre che N sia una variabile casuale a valori in {0, 1, 2, ...}, indipendenteda X1, X2, ... Indichiamo media, varianza e funzione generatrice dei momenti di N comesegue:

c = E(N), d2 = var(N), G(t) = E(tN).

Definiamo ora

Y = X1 + X2 + ··· + XN (dove Y = 0 se N = 0)

Notiamo che Y è una somma casuale di variabili; i termini della somma e il numero ditermini sono casuali. Questo tipo di variabile casuale si presenta in diversi contesti. Peresempio, N può rappresentare il numero di consumatori che entrano in un negozio in uncerto periodo di tempo, e Xi il danaro speso dal consumatore i.

39. Prova che E(Y | N) = Na.

40. Prova che E(Y) = ca.

41. Prova che var(Y | N) = Nb2.

42. Prova che var(Y) = cb2 + a2d2.

43. Prova che E[exp(tY)] = G[M(t)].

44. Nell'esperimento dado-moneta, si lancia un dado equilibrato e poi una monetabilanciata il numero di volte indicato dal dado. Sia N il punteggio del dado e X il numerodi teste.

Valore atteso condizionato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect5.html (7 di 9) [22/11/2001 17.46.18]

Page 51: Laboratorio virtuale di probabilità e statistica

Trova la distribuzione condizionata di X dato N.1.

Trova E(X | N).2.

Trova var(X | N).3.

Trova E(X).4.

Trova var(X).5.

45. Replica l'esperimento dado-moneta 1000 volte, aggiornando ogni 10. Osserva laconvergenza di media e deviazione standard empiriche alle loro controparti teoriche.

46. Il numero di consumatori che entrano in un negozio in un'ora è una variabilecasuale con media 20 e deviazione standard 3. Ciascun cliente, indipendentemente daglialtri, spende un'ammontare aleatorio di danaro con media 50$ e deviazione standard 5$.Trova media e devizione standard della quantità di danaro spesa nell'ora.

Misture

Supponiamo che X1, X2, ... siano variabili casuali a valori reali, e che N sia una variabilecasuale a valori in {1, 2, ..., }, indipendente da X1, X2, ... Indichiamo medie, varianze efunzioni generatrici dei momenti come segue:

µi = E(Xi), di2 = var(Xi), Mi(t) = E[exp(tXi)] per ogni i.

Indica la funzione di densità di N come

pi = P(N = i) for i = 1, 2, ...

Definiamo ora una nuova variabile casuale X attraverso la condizione

X = Xi se e solo se N = i.

Ricordiamo che la distribuzione di X è una mistura delle distribuzioni di X1, X2, ...

47. Prova che E(X | N) = µN.

48. Prova che E(X) = i = 1, 2, ... pi µi.

49. Prova che var(X) = i = 1, 2, ... pi (di2 + µi

2) - ( i = 1, 2, ... pi µi)2.

50. Prova che E[exp(tY)] = i = 1, 2, ... pi Mi(t).

51. Nell'esperimento moneta-dado, si lancia una moneta sbilanciata con probabilità ditesta 1/3. Se esce croce, si lancia un dado equilibrato; se esce testa si lancia un dado piattouno-sei (le facce 1 e 6 hanno probabilità 1/4 mentre le altre hanno probabilità 1/8). Trovamedia e deviazione standard del punteggio del dado.

Valore atteso condizionato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect5.html (8 di 9) [22/11/2001 17.46.18]

Page 52: Laboratorio virtuale di probabilità e statistica

52. Replica l'esperimento moneta-dado 1000 volte, aggiornando ogni 10. Osserva laconvergenza di media e deviazione standard empiriche ai loro valori teorici.

Proiezioni

Ricordiamo che l'insieme di variabili casuali a valori reali su un dato spazio di probabilità(ovvero, per un dato esperimento casuale), con momento secondo finito, forma uno spaziovettoriale, con prodotto interno dato da

<U, V> = E(UV).

In questo contesto, supponiamo che Y sia una variabile casuale a valori reali e X unavariabile casuale generica. Allora E(Y | X) è semplicemente la proiezione di Y sulsottospazio delle variabili casuali a valori reali che possono essere espresse in funzione diX.

Laboratorio virtuale > Valore atteso > 1 2 3 4 [5] 6 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Valore atteso condizionato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect5.html (9 di 9) [22/11/2001 17.46.18]

Page 53: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Valore atteso > 1 2 3 4 5 [6] 7

6. Valore atteso e matrici di covarianza

L'obiettivo principale di questo paragrafo è la trattazione dei valori attesi con argomentovettoriale e le matrici di varianza e covarianza. Tali argomenti sono particolarmenteimportanti per i modelli statistici multivariati e per la distribuzione normale multivariata.La lettura di qeusto paragrafo presuppone la conoscenza dei fondamenti dell'algebralineare, a livello di un corso universitario.

Indicheremo con Rm×n lo spazio di tutte le m × n matrici di numeri reali. In particolare,identificheremo Rn con Rn×1, per cui una nupla ordinata può essere pensata come vettorecolonna n × 1. La trasposta di una matrice A è indicata come AT.

Valore atteso di una matrice casuale

Supponi che X sia una matrice m × n di variabili casuali a valori reali, il cui elemento i, jè indicato con Xij. Equivalentemente, X può essere visto come matrice casuale m × n.Viene naturale definire il valore atteso E(X) come la matrice m × n il cui elemento i, j èE(Xij), ovvero il valore atteso di Xij.

Molte delle proprietà più importanti del valore atteso di variabili casuali hanno proprietàomologhe nel caso dei vettori casuali, con le operazioni matriciali al posto di quellealgebriche.

1. Prova che E(X + Y) = E(X) + E(Y) se X e Y sono matrici casuali m × n.

2. Prova che E(AX) = AE(X) se A è una matrice m × n non casuale e X è una matricecasuale n × k.

3. Prova che E(XY) = E(X)E(Y) se X è una matrice casuale m × n, Y è una matricecasuale n × k e X e Y sono indipendenti.

Matrici di covarianza

Supponiamo ora che X sia un vettore casuale appartenente a Rm e Y sia un vettore casualeappartenente a Rn. La matrice di covarianza di X e Y è la matrice m × n cov(X, Y) il cuielemento i, j è cov(Xi, Yj), cioè la covarianza di Xi e Yj.

4. Mostra che cov(X, Y) = E{[X - E(X)][Y - E(Y)]T}

5. Mostra che cov(X, Y) = E(XYT) - E(X)E(Y)T.

6. Mostra che cov(Y, X) = cov(X, Y)T.

7. Mostra che cov(X, Y) = 0 se ciascun elemento di X è incorrelato con ciascunelemento di Y (in particolare, se X e Y sono indipendenti).

Valore atteso e matrici di covarianza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect6.html (1 di 3) [22/11/2001 17.46.20]

Page 54: Laboratorio virtuale di probabilità e statistica

8. Mostra che cov(X + Y, Z) = cov(X, Z) + cov(Y, Z) se X e Y sono vettori casualiappartenente a Rm e Z è un vettore casuale appartenente a Rn.

9. Mostra che cov(X, Y + Z) = cov(X, Y) + cov(X, Z) se X è un vettore casualeappartenente a Rm e Y, Z sono vettori casuali appartenenti a Rn.

10. Prova che cov(AX, Y) = A cov(X, Y) se X è un vettore casuale appartenente a Rm,Y è un vettore casuale appartenente a Rn e A è una matrice k × m non casuale.

11. Prova che cov(X, AY) = cov(X, Y)AT se X è un vettore casuale appartenente a Rm,Y è un vettore casuale appartenente a Rn e A è una matrice k × n non casuale.

Matrici di varianza e covarianza

Supponiamo ora che X = (X1, X2, ..., Xn) sia un vettore casuale appartenente a Rn. Lamatrice di covarianza di X con se stessa è detta matrice di varianza e covarianza di X:

VC(X) = cov(X, X).

12. Mostra che VC(X) è una matrice n × n simmetrica con var(X1), ..., var(Xn) sulladiagonale.

13. Dimostra che VC(X + Y) = VC(X) + cov(X, Y) + cov(Y, X) + VC(X) se X and Ysono vettori casuali appartenenti a Rn.

14. Mostra che VC(AX) = A VC(X) AT se X è un vettore casuale appartenente a Rn eA è una matrice m × n non casuale.

Se a appartiene a Rn, notiamo che aTX è combinazione lineare delle coordinate di X:

aTX = a1X1 + a2X2 + ··· + anXn.

15. Prova che var(aTX) = aT VC(X) a se X è un vettore casuale appartenente a Rn e aappartiene a Rn. Concludiamo quindi che VC(X) è positiva definita o semi positivadefinita.

In particolare, gli autovalori e il determinante di VC(X) sono nonnegativi.

16. Prova che VC(X) è semidefinita positiva (ma non positiva definita) se e solo seesistono a1, a2, ..., an, c in R tali che

a1X1 + a2X2 + ··· + anXn = c (con probabilità 1).

Pertanto, se VC(X) è semidefinita positiva, allora una delle coordinate di X può esserescritta come trasformazione affine delle altre coordinate (e quindi può di solito essereeliminata nel modello sottostante). Al contrario, se VC(X) è definita positiva, allora ciònon può verificarsi; VC(X) ha autovalori positivi e determinante ed è invertibile.

Valore atteso e matrici di covarianza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect6.html (2 di 3) [22/11/2001 17.46.20]

Page 55: Laboratorio virtuale di probabilità e statistica

Esercizi numerici

17. Supponi che (X, Y) abbia funzione di densità f(x, y) = x + y for 0 < x < 1, 0 < y <1. Trova

E(X, Y)1.

VC(X, Y).2.

18. Supponi che (X, Y) abbia funzione di densità f(x, y) = 2(x + y) per 0 < x < y < 1.Trova

E(X, Y)1.

VC(X, Y).2.

19. Supponi che (X, Y) abbia funzione di densità f(x, y) = 6x2y per 0 < x < 1, 0 < y <1. Trova

E(X, Y)1.

VC(X, Y).2.

20. Supponi che (X, Y) abbia funzione di densità f(x, y) = 15x2y per 0 < x < y < 1.Trova

E(X, Y)1.

VC(X, Y).2.

21. Supponi che (X, Y, Z) sia distribuita uniformemente sulla regione {(x, y, z): 0 < x< y < z < 1}. Trova

E(X, Y, Z)1.

VC(X, Y, Z)2.

22. Supponi che X sia distribuita uniformemente su (0, 1), e che, dato X, Y siadistribuita uniformemente su (0, X). Trova

E(X, Y)1.

VC(X, Y)2.

Laboratorio virtuale > Valore atteso > 1 2 3 4 5 [6] 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Valore atteso e matrici di covarianza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect6.html (3 di 3) [22/11/2001 17.46.20]

Page 56: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Valore atteso > 1 2 3 4 5 6 [7]

7. Note conclusive

Libri

Questo capitolo copre argomenti fondamentali che sono trattati, a vari livelli diapprofondimento, in ogni libro di probabilità.

An Introduction to Probability Theory and its Applications, Volume 1 (terzaedizione) di William Feller è considerato uno dei migliori testi sulla probabilità maiscritti.

Un testo eccellente per la probabilità elementare ricco di esempi ed esercizi è AFirst Course in Probability (quinta edizione) di Sheldon Ross

Una trattazione sintetica della probabilità elementare si ha in The Essentials ofProbability di Richard Durrett

Per una trattazione più completa dal punto di vista della misura della probabilità,puoi vedere Probability and Measure, di Patrick Billingsley.

Una trattazione della storia della probabilità è in Games, Gods and Gambling, diFlorence David

Siti esterni

Il sito più importante per informazioni storiche sulla probabilità è History ofMathematics.

Risposte agli esercizi del paragrafo 1

1.4. Sia X il punteggio. E(X) = 7/2.

1.6. Sia X il punteggio. E(X) = 7/2.

1.7. E(X) = 3/5.

1.21. Sia Y = X2.

g(y) = (1/4)y -1/2 per 0 < y < 1, g(y) = (1/8)y -1/2 per 1 < y < 9.1.

E(Y) = 7/3.2.

E(Y) = 7/3.3.

1.22. Sia Y = X2.

E(X) = 18 / 51.

y 1 4 9 16 25P(Y = y) 1/30 2/15 3/20 4/15 5/12

2.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect7.html (1 di 9) [22/11/2001 17.46.24]

Page 57: Laboratorio virtuale di probabilità e statistica

E(Y) = 83 / 53.

E(Y) = 83 / 54.

1.23.

E(1/X) = 21.

E(X1/2) = 48 / 632.

1.24.

E(X) = 5 / 121.

E(Y) = 3 / 42.

E(X2Y) = 7 / 363.

E(X2 + Y2) = 5 / 6.4.

1.32.

E(Y) = 71.

E(Z) = 49 / 42.

E(U) = 101 / 363.

E(V) = 19 / 44.

1.33. E(3X + 4Y - 7) = 0

1.34. E[(3X - 4)(2Y + 7)] = 33

1.35. Sia N il numero di anatre uccise.

E(N) = 10[1 - (9/10)5] = 4.095

1.36. E(Xn) = (bn + 1 - an + 1) / [(n + 1)(b - a)]

1.37. E(Xn) = 12[1 / (n + 3) - 1 / (n + 4)]

1.44.

E(X) = 1 / r1.

exp(-rt) < 1 / rt per t > 03.

1.45.

E(Y) = 1 / p1.

(1 - p)n - 1 < 1 / np per n = 1, 2, ...3.

1.50.

E(X) = a / (a - 1)1.

E(1/X) = a / (a + 1)2.

a / (a + 1) > (a - 1) / a4.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect7.html (2 di 9) [22/11/2001 17.46.24]

Page 58: Laboratorio virtuale di probabilità e statistica

1.53.

E(X2 + Y2) = 5 / 61.

[E(X)]2 + [E(Y)]2 = 53 / 722.

1.54. E(X | X > t) = t + 1 / r.

1.56. E(Y | Y è pari) = 2(1 - p)2 / [p(2 - p)3]

1.57. E(XY | Y > X) = 1/3.

Risposte agli esercizi del paragrafo 2

2.9. Sia X il punteggio del dado.

E(X) = 7/21.

var(X) = 35/122.

sd(X) ~ 1.7083.

2.11. Sia X il punteggio del dado.

E(X) = 7/21.

var(X) = 15/42.

sd(X) ~ 1.9363.

2.22.

var(3X - 2) = 361.

E(X2) = 292.

2.24. z = 8.53.

2.27. E(Y) = 4/3, sd(Y) = 2/3, k = 2

P[|Y - E(Y)| k sd(Y)] = 1/16.1.

1 / k2 = 1/42.

2.28. E(X) = 1 / r, sd(Y) = 1 / r.

P[|X - E(X)| k sd(Y)] = exp[-(k + 1)]1.

1 / k2.2.

2.32.

E(X) = 1/2, var(X) = 1/20, skew(X) = 0, kurt(X) = 15/71.

E(X) = 3/5, var(X) = 1/25, skew(X) = -2/7, kurt(X) = 33/142.

E(X) = 2/5, var(X) = 1/25, skew(X) = 02/7, kurt(X) = 33/143.

2.38.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect7.html (3 di 9) [22/11/2001 17.46.24]

Page 59: Laboratorio virtuale di probabilità e statistica

||X||k = 1 / (k + 1)1/k.1.

13.

2.39.

||X||k = [a / (a - k)]1/k se k < a, ||X||k = se k a.1.

3.

2.40.

||X + Y||k = [(2k+3 - 2) / (k + 3)(k + 2)]1/k.1.

||X||k + ||Y||k = 2[1 / (k + 2) + 1 / 2(k + 1)]1/k.2.

2.48.

Per p < 1/2, il minimo di E[|I - t|] è p e si ha per t = 0.1.

Per p = 1/2, il minimo di E[|I - t|] è 1/2 e si ha per t in [0, 1].2.

Per p > 1/2, il minimo di E[|I - t|] è 1 - p e si ha a t = 1.3.

Risposte agli esercizi del paragrafo 3

3.14.

cov(X1, X2) = 0, cor(X1, X2) = 01.

cov(X1, Y) = 35 / 12, cor(X1, Y) = 2-1/2 ~ 0.7071.2.

cov(X1, U) = 35 / 24, cor(X1, U) ~ 0.60823.

cov(U, V) = 1369 / 1296, cor(U, V) = 1369 / 2555 ~ 0.53584.

cov(U, Y) = 35 / 12, cor(U, Y) = 0.86015.

3.15. cov(2X - 5, 4Y + 2) = 24.

3.16.

cov(X, Y) = -1 / 144.1.

cor(X, Y) = -1 / 11 ~ 0.09092.

3.17.

cov(X, Y) = 1 / 48.1.

cor(X, Y) ~ 0.44022.

3.18.

cov(X, Y) = 0.1.

cor(X, Y) = 0.2.

3.19.

cov(X, Y) = 5 / 3361.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect7.html (4 di 9) [22/11/2001 17.46.24]

Page 60: Laboratorio virtuale di probabilità e statistica

cor(X, Y) ~ 0.0.54232.

3.24. var(2X + 3Y - 7) = 83

3.25. var(3X - 4Y + 5) = 182

3.27. Sia Y la somma dei punteggi dei dadi.

E(Y) = 7n / 2.1.

var(Y) = 35n / 12.2.

3.32.

cov(A, B) = 1 / 24.1.

cor(A, B) ~ 0.1768.2.

3.33.

Y* = (7 - X) / 111.

X* = (7 - Y) / 112.

cor2(X, Y) = 1 / 121 = 0.00833.

3.40.

Y* = (26 + 15X) / 431.

X* = 5Y / 92.

cor2(X, Y) = 25 / 129 ~ 0.19383.

3.41.

Y* = 2 / 31.

X* = 3 / 42.

cor2(X, Y) = 03.

3.42.

Y* = (30 + 20X) / 511.

X* = 3Y / 42.

cor2(X, Y) = 5 / 17 ~ 0.29413.

3.43.

Y* = 7 / 2 + X1.1.

U* = 7 / 9 + X1 / 2.2.

V* = 49 / 19 + X1 / 2.3.

3.53. <X, Y> = 1/3

||X||2 ||Y||2 = 5 / 12.1.

||X||3 ||Y||3/2 ~ 0.4248.2.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect7.html (5 di 9) [22/11/2001 17.46.24]

Page 61: Laboratorio virtuale di probabilità e statistica

Risposte agli esercizi del paragrafo 4

4.32.

M(s, t) = 2[exp(s + t) - 1] / [s(s + t)] - 2[exp(t) - 1] / (st) per s, t 01.

MX(s) = 2[exp(s) / s2 - 1 / s2 - 1 / s] per s 0.2.

MY(t) = 2[t exp(t) - exp(t) + 1] / t2 per t 0.3.

MX + Y(t) = [exp(2t) - 1] / t2 - 2[exp(t) - 1] / t2 per t 0.4.

4.33.

M(s, t) = {exp(s + t)[-2st + s + t] + exp(t)[st - s - t] + exp(s)[st - s - t] + s + t} / (s2

t2) per s, t 0.1.

MX(s) = [3s exp(s) - 2 exp(s) - s + 2] / (2s2) per s 0.2.

MY(t) = [3t exp(t) - 2 exp(t) - t + 2] / (2t2) per t 0.3.

MX + Y(t) = 2[exp(2t) (-t + 1) + exp(t)(t - 2) + 1] / t3 per t 0.4.

Risposte agli esercizi del paragrafo 5

5.13. E(Y | X) = 0.

5.15. E(Y | X) = (X + 6) / 2.

5.17.

E(Y | X) = (3X + 2) / (6X + 3)1.

E(X | Y) = (3Y + 2) / (6Y + 3)2.

5.18.

E(Y | X) = (5X2 + 5X + 2) / (9X + 3)1.

E(X | Y) = 5Y / 92.

5.19.

E(Y | X) = 2 / 3.1.

E(X | Y) = 3 / 4.2.

5.20.

E(Y | X) = 2(X2 + X + 1) / 3(X + 1)1.

E(X | Y) = 3Y / 4.2.

5.21.

E(Y | X1) = 7 / 2 + X1.1. 2.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect7.html (6 di 9) [22/11/2001 17.46.24]

Page 62: Laboratorio virtuale di probabilità e statistica

x 1 2 3 4 5 6E(U | X1 = x) 1 11/6 5/2 3 10/3 7/2

u 1 2 3 4 5 6E(Y | U = u) 52/11 56/9 54/7 46/5 32/3 12

3.

E(X2 | X1) = 7/24.

5.22. E[exp(X) Y - sin(X) Z | X] = X3 exp(X) - sin(X) / (1 + X2)

5.24. P(H) = 1/2

5.28.

Y* = (7 - X) / 11.1.

E(Y | X) = (3X + 2) / (6X + 3)2.

5.29.

Y* = (26 + 15X) / 431.

E(Y | X) = (5X2 + 5X + 2) / (9X + 3)2.

5.30.

Y* = 2 / 31.

E(Y | X) = 2 / 3.2.

5.31.

Y* = (30 + 20X) / 511.

E(Y | X) = 2(X2 + X + 1) / 3(X + 1)2.

5.34.

var(Y) = 11 / 144 ~ 0.0764.1.

var(Y)[1 - cor2(X, Y)] = 5 / 66 ~ 0.0758.2.

var(Y) - var[E(Y | X)] = 1 / 12 - ln(3) / 144 ~ 0.07573.

5.35.

var(Y) = 3 / 80 ~ 0.03751.

var(Y)[1 - cor2(X, Y)] = 13 / 430 ~ 0.03022.

var(Y) - var[E(Y | X)] = 1837 / 21870 - 512 ln(2) / 6561 ~ 0.02993.

5.36.

var(Y) = 1 / 181.

var(Y)[1 - cor2(X, Y)] = 1 / 182.

var(Y) - var[E(Y | X)] = 1 / 183.

5.37.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect7.html (7 di 9) [22/11/2001 17.46.24]

Page 63: Laboratorio virtuale di probabilità e statistica

var(Y) = 5 / 252 ~ 0.01981.

var(Y)[1 - cor2(X, Y)] = 5 / 357 ~ 0.01402.

var(Y) - var[E(Y | X)] = 292 / 63 - 20 ln(2) / 3 ~ 0.01393.

5.38.

E(Y | X) = X / 2.1.

var(Y | X) = X2 / 12.2.

var(Y) = 7 / 144.3.

5.44.

Dato N, X ha distribuzione binomiale con parametri N e p = 1/2.1.

E(X | N) = N / 2.2.

var(X | N) = N / 4.3.

E(X) = 7 / 44.

var(X) = 7 / 3.5.

5.46. Sia Y la quantità di denaro spesa durante l'ora.

E(Y) = $10001.

sd(Y) ~ $30.8222.

5.51. Sia X il punteggio del dado

E(X) = 7 / 2.1.

var(X) = 1.86342.

Risposte agli esercizi del paragrafo 6

6.17.

E(X, Y)7 / 127 / 12

1.

VC(X, Y)11 / 144 -1 / 144-1 / 144 11 / 144

2.

6.18.

E(X, Y)5 / 123 / 4

1.

VC(X, Y)43 / 720 1 / 481 / 48 3 / 80

2.

6.19.

E(X, Y)3 / 42 / 3

1.

3 / 80 02.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect7.html (8 di 9) [22/11/2001 17.46.24]

Page 64: Laboratorio virtuale di probabilità e statistica

VC(X, Y) = 0 1 / 18

6.20.

E(X, Y)5 / 85 / 6

1.

VC(X, Y)17 / 448 5 / 3365 / 336 5 / 252

2.

6.21.

E(X, Y, Z)1 / 41 / 23 / 4

1.

VC(X, Y, Z)3 / 80 1 / 40 1 / 801 / 40 1 / 20 1 / 401 / 80 1 / 40 3 / 80

2.

6.22.

E(X, Y)1 / 21 / 4

1.

VC(X, Y)1 / 12 1 / 241 / 24 7 / 144

2.

Laboratorio virtuale > Valore atteso > 1 2 3 4 5 6 [7]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/expect/expect7.html (9 di 9) [22/11/2001 17.46.24]

Page 65: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni > [1] 2 3 4 5 6 7 8 9

1. Distribuzioni discrete

Densità discrete

Supponiamo di avere un esperimento casuale con spazio campionario R e misura diprobabilità P. Una variabile casuale X relativa all'esperimento che assume valori in uninsieme numerabile S si dice avere distribuzione discreta. La funzione di densità diprobabilità (discreta) di X è la funzione f da S su R definita da

f(x) = P(X = x) per x appartenente a S.

1. Dimostra che f soddisfa le seguenti proprietà:

f(x) 0 per x in S.1.

x in S f(x) = 12.

x in A f(x) = P(X A) per A S.3.

La proprietà (c) è particolarmente importante, poiché mostra che la distribuzione diprobabilità di una variabile casuale discreta è completamente individuata dalla suafunzione di densità. Di converso, ogni funzione che soddisfa le proprietà (a) e (b) è unafunzione di densità (discreta), per cui la proprietà (c) può essere utilizzata per costruireuna distribuzione di probabilità su S. Tecnicamente, f è la densità di X relativa alla misuradi conteggio su S.

Normalmente, S è un sottinsieme nunmerabile di qualche insieme più grande, come Rn

per qualche n. Possiamo sempre estendere f, se vogliamo, all'insieme più grandedefinendo f(x) = 0 per x non appartenente a S. A volte questa estensione semplifca leformule e la notazione.

Un elemento x di S che massimizza la densità f è detto moda della distribuzione. Quandola moda è unica, la si usa a volte come centro della distribuzione.

Interpretazione

Una distribuzione di probabilità discreta è equivalente a una distribuzione di massadiscreta, con massa totale 1. In questa analogia S è l'insieme (numerabile) dei punti dimassa, e f(x) è la massa del punto a x appartenente a S. La proprietà (c) dell'esercizio 1significa semplicemente che la massa di un insieme A può essere trovata sommando lemasse dei punti di A.

Per un'interpretazione probabilistica, supponiamo di creare un nuovo esperimentocomposto ripetendo all'infinito l'esperimento originale. Nell'esperimento composto,

Distribuzioni discrete

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist1.html (1 di 8) [22/11/2001 17.46.29]

Page 66: Laboratorio virtuale di probabilità e statistica

abbiamo delle variabili casuali indipendenti X1, X2, ..., ciascuna distribuita come X (sitratta di " copie indipendenti" di X). Per ciascun x appartenente a S, sia

fn(x) = #{i {1, 2, ..., n}: Xi = x} / n,

la frequenza relativa di x nelle prime n replicazioni (il numero di volte in cui x si èverificato diviso per n). Nota che per ogni x, fn(x) è una variabile casuale dell'esperimentocomposto. Per la legge dei grandi numeri, fn(x) deve convergere a f(x) al crescere di n. Lafunzione fn è detta funzione di densità empirica; queste funzioni sono visualizzate inmolte delle applet di simulazione che trattano di variabili discrete.

Esempi

2. Supponi di lanciare due dadi equilibrati e di registrare la sequenza di punteggi (X1,X2). Trova la funzione di densità di

(X1, X2)1.

Y = X1 + X2, somma dei punteggi2.

U = min{X1, X2}, punteggio minimo3.

V = max{X1, X2}, punteggio massimo4.

(U, V)5.

3. Nell'esperimento dei dadi, poni n = 2 dadi equilibrati. Seleziona le seguenti variabilicasuali e osserva la forma e la posizione della funzione di densità. Simula 1000replicazioni, aggiornando ogni 10. Per ciascuna delle variabili, osserva la convergenzadella funzione di densità empirica alla funzione di densità.

Somma dei punteggi.1.

Punteggio minimo.2.

Punteggio massimo.3.

4. Si estrae a caso un elemento X da un insieme finito S.

Dimostra che X ha funzione di densità di probabilità f(x) = 1 / #(S) per xappartenente a S.

1.

Prova che P(X A) = #(A) / #(S) per A S.2.

La distribuzione dell'esercizio precedente è detta distribuzione discreta uniforme su S.Molte variabili che si presentano negli esperimenti di campionameto o combinatori sonotrasformazioni di variabili con distribuzione uniforme.

5. Supponi di estrarre a caso e senza reinserimento n elementi da un insieme D con Nelementi. Sia X la sequenza ordinata di elementi scelti. Spiega perché X è distribuitauniformemente sull'insieme S delle permutazioni di dimensione n scelte da D:

P(X = x) = 1 / (N)n per ogni x appartenente a S.

Distribuzioni discrete

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist1.html (2 di 8) [22/11/2001 17.46.29]

Page 67: Laboratorio virtuale di probabilità e statistica

6. Supponi di estrarre, senza reinserimento, n elementi da un insieme D con Nelementi. Sia W l'insieme non ordinato degli elementi selezionati. Mostra che W èdistribuito uniformemente sull'insieme T delle combinazioni di dimensioni n scelte da D:

P(W = w) = 1 / C(N, n) per w appartenente a T.

7. Un'urna contiene N palline; R sono rosse e N - R verdi. Si estrae un campione di npalline (senza reinserimento). Sia Y il numero di palline rosse del campione. Prova che Yha funzione di densità di probabilità.

P(Y = k) = C(R, k) C(N - R, n - k) / C(N, n) per k = 0, 1, ..., n.

La distribuzione definita dalla funzione di densità dell'esercizio precedente è dettadistribuzione ipergeometrica con parametri N, R e n. La distribuzione ipergeometrica èstudiata in dettaglio nel capitolo sui modelli di campionamento finiti, che contieneun'ampia varietà di distribuzioni basate sulla distribuzione uniforme discreta.

8. Un'urna contiene 30 palline rosse e 20 verdi. Si estrae a caso un campione di 5palline. Sia Y il numero di palline rosse del campione.

Calcola esplicitamente la funzione di densità di Y.1.

Disegna il grafico della funzione di densità e identifica la moda (o le mode).2.

Trova P(Y > 3).3.

9. Nell'esperimento della pallina e dell'urna, seleziona il campionamento senzareinserimento. Simula 1000 replicazioni, aggiornando ogni 10, e osserva la convergenzadella funzione di densità empirica di Y alla funzione di densità teorica.

10. Una moneta con probabilità di testa p viene lanciata n volte. Per j = 1, ..., n, sia Ij =1 se il lancio j-esimo è testa e Ij = 0 se il lancio j-esimo è croce. Mostra che (I1, I2, ..., In)ha funzione di densità di probabilità

f(i1, i2, ..., in) = pk(1 - p)n - k per ij appartenente a {0, 1} per ogni j, dove k = i1 + i2 + ··· +in.

11. Una moneta con probabilità di testa p viene lanciata n volte. Sia X il numero diteste. Prova che X ha funzione di densità di probabilità

P(X = k) = C(n, k) pk (1 - p)n - k per k = 0, 1, ..., n.

La distribuzione definita dalla densità dell'esercizio precedente è detta distribuzionebinomiale con parametri n e p. La distribuzione binomiale è analizzata in dettaglio nelcapitolo sulle prove Bernoulliane.

12. Supponi di lanciare 5 volte una moneta con probabilità di testa p = 0.4. Sia X ilnumero di teste.

Calcola esplicitamente la funzione di densità X.1.

Distribuzioni discrete

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist1.html (3 di 8) [22/11/2001 17.46.29]

Page 68: Laboratorio virtuale di probabilità e statistica

Disegna il grafico della funzione di densità e trova la moda.2.

Trova P(X > 3).3.

13. Nell'esperimento della moneta, poni n = 5 e p = 0.4. Simula 1000 replicazione,aggiornando ogni 10, e osserva la convergenza della funzione di densità empirica di Xalla funzione di densità.

14. Sia ft(n) = exp(-t) tn / n! per n = 0, 1, 2, ..., dove t > 0 è un parametro.

Prova che ft è una funzione di densità di probabilità per ogni t > 0.1.

Prova che ft(n) > ft(n - 1) se e solo se n < t.2.

Prova che la moda è a floor(t) se t non è intero, e a t - e t se t è intero.3.

La distribuzione definita dalla densità dell'esercizio precedente è la distribuzione diPoisson con parametro t, che prende il nome da Simeon Poisson. La distribuzione diPoisson è analizzata in dettaglio nel capitolo sui processi di Poisson, e si utilizza permodellare il numero di "punti casuali" in una regione di tempo o di spazio. Il parametro tè proporzionale alla dimensione della regione di tempo o spazio.

15. Supponi che il numero di errori di battitura N di una pagina web abbiadistribuzione di Poisson con parametro 2.5.

Trova la moda.1.

Trova P(N > 4).2.

16. Nel processo di Poisson, seleziona come parametro 2.5. Simula 1000 replicazioniaggiornando ogni 10 e osserva la convergenza della funzione di densità empirica a quellateorica.

17. Nell'esperimento dado-moneta, si lancia un dado equilibrato e poi si lancia unamoneta bilanciata il numero di volte indicato dal dado. Sia I la sequenza di esiti dellamoneta (0 croce, 1 testa). Trova la densità di I (nota che I assume valori in un insieme disequenze di lunghezza variabile).

La costruzione delle densità

18. Supponi che g sia una funzione non negativa definita su un insieme numerabile S eche

c = x in S g(x).

Mostra che se c è positivo e finito, allora f(x) = g(x) / c per x appartenente a S definisceuna funzione di densità discreta su S.

La costante c dell'esercizio precedente è detta a volte costante di normalizzazione. Questorisultato è utile per costruire funzioni di densità con le proprietà funzionali desiderate(dominio, forma, simmetria, e così via).

Distribuzioni discrete

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist1.html (4 di 8) [22/11/2001 17.46.29]

Page 69: Laboratorio virtuale di probabilità e statistica

19. Sia g(x) = x2 per x appartenente a {-2, -1, 0, 1, 2}.

Trova la funzione di densità di probabilità f proporzionale a g.1.

Disegna il grafico della funzione di densità e identifica le mode.2.

Trova P(X {-1, 1, 2}) dove X è una variabile casuale con la densità riportata in(a).

3.

20. Sia g(n) = qn per n = 0, 1, 2, ... dove q è un parametro nell'intervallo (0,1).

Trova la funzione di densità di probabilità f proporzionale a g.1.

Trova P(X < 2) dove X è una variabile casuale con la densità riportata in (a).2.

Trova la probabilità che X sia pari.3.

La distribuzione costruita nell'esercizio precedente è una versione della distribuzionegeometrica, ed è studiata in dettaglio nel capitolo sulle prove Bernoulliane.

21. Sia g(x, y) = x + y per (x, y) {0, 1, 2}2.

Trova la funzione di densità di probabilità f proporzionale a g.1.

Trova la moda della distribuzione.2.

Trova P(X > Y) dove (X, Y) è un vettore aleatorio con la densità di (a).3.

22. Sia g(x, y) = xy per (x, y) {(1, 1), (1, 2), (1, 3), (2, 2), (2, 3), (3, 3)}.

Trova la funzione di densità di probabilità f proporzionale a g.1.

Trova la moda della distribuzione.2.

Trova P([(X, Y) {(1, 2), (1, 3), (2, 2), (2, 3)}] dove (X, Y) è un vettore aleatoriocon la densità di (a).

3.

Densità condizionate

La funzione di densità di una variabile casuale X si basa, ovviamente, sulla misura diprobabilità sottostante P sullo spazio campionario R dell'esperimento. Questa misura puòesere una misura di probabilità condizionata, dato un certo evento E (con P(E) > 0). Lanotazione consueta è

f(x | E) = P(X = x | E) per x appartenente a S.

L'esercizio seguente mostra che, a parte la notazione, non si tratta di concetti nuovi.Quindi, tutti i risultati che valgono per le densità in generale hanno risultati analoghi perle densità condizionate.

23. Mostra che, come funzione di x per dato E, f(x | E) è una funzione di densitàdiscreta. Mostra cioè che soddisfa le proprietà (a) e (b) dell'esercizio 2, e che la proprietà(c) diventa

P(X A | E) = x in A f(x | E) per A S.

Distribuzioni discrete

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist1.html (5 di 8) [22/11/2001 17.46.29]

Page 70: Laboratorio virtuale di probabilità e statistica

24. Supponi che B S e P(X B) > 0. Mostra che la densità condizionata di X datoX B è

f(x | X B) = f(x) / P(X B) per x B.1.

f(x | X B) = 0 se x Bc.2.

25. Supponi che X sia distribuita uniformemente su un insieme finito S e che B sia unsottinsieme non vuoto di S. Prova che la distribuzione condizionata di X dato X B èuniforme su B.

26. Supponi che X abbia funzione di densità di probabilità f(x) = x2 / 10 per x = -2, -1,0, 1, 2. Trova la densità condizionata di X dato X > 0.

27. Si lanciano due dadi equilibrati. Sia Y la somma dei punteggi e U il punteggiominimo. Trova la densità condizionata di U dato Y = 8.

28. Replica 200 volte l'esperimento dei dadi, aggiornando ogni volta. Calcola ladensità empirica condizionata di U dato Y = 8 e confrontala con la densità condizionatadell'ultimo esercizio.

La legge delle probabilità totali e il teorema di Bayes

Supponi che X sia una variabile casuale discreta a valori in un insieme numerabile S, eche B sia un evento dell'esperimento (ovvero, un sottinsieme dello spazio campionariosottostante R).

29. Prova la legge delle probabilità totali:

P(B) = x in S P(X = x) P(B | X = x).

Questo risultato è utile, ovviamente, quando la distribuzione di X e la probabilitàcondizionata di B dati i valori di X sono noti. A volte si dice condizionare a X.

30. Prova il teorema di Bayes, chiamato così in onore di Thomas Bayes:

P(X = x | B) = P(X = x) P(B | X = x) / y in S P(X = y) P(B | X = y) per x appartenente aS.

Il teorema di Bayes è una formula per calcolare la densità condizionata di X dato B. Cosìcome per la legge delle probabilità totali, è utile quando le quantità al membro di destrasono note. La distribuzione (non condizionata) di X si dice distribuzione a priori e ladensità condizionata come distribuzione a posteriori.

31. Nell'esperimento dado-moneta, si lancia un dado equilibrato e poi si lancia unamoneta bilanciata il numero di volte indicato dal dado

Distribuzioni discrete

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist1.html (6 di 8) [22/11/2001 17.46.29]

Page 71: Laboratorio virtuale di probabilità e statistica

Trova la probabilità di avere esattamente due teste.1.

Sapendo che sono uscite due teste, trova la densità condizionata del punteggio deldado.

2.

32. Replica l'esperimento dado-moneta 200 volte, aggiornando ogni volta.

Calcola la probabilità empirica di avere esattamente due teste e confrontala con laprobabilità dell'esercizio precedente.

1.

Calcolca la densità condizionata empirica del punteggio del dado sapendo che sonouscite esattamente due teste e confrontalo con la densità condizionata teoricadell'esercizio precedente.

2.

33. Supponi che un sacchetto contenga 12 monete: 5 bilanciate, 4 sbilanciate conprobabilità di testa 1/3 e 3 a due teste. Si sceglie a caso una moneta e la si lancia duevolte.

Trova la probabilità di avere esattamente due teste.1.

Sapendo che sono uscite due teste, trova la densità condizionata del tipo di moneta.2.

Confronta gli esercizi 31 e 33. Nell'esercizio 31, si lancia una moneta con probabilità ditesta data un numero casuale di volte. Nell'esercizio 33, si lancia una moneta conprobabilità casuale di testa un numero dato di volte.

34. Nell'esperimento moneta-dado, si lancia una moneta equilibrata. Se esce croce, silancia un dado equilibrato. Se esce testa, si lancia un dado piatto uno-sei (1 e 6 hannoprobabilità 1/4, mentre 2, 3, 4 e 5 hanno probabilità 1/8). Trova la funzione di densità delpunteggio del dado.

35. Replica l'esperimento moneta-dado 1000 volte, aggiornando ogni 10. confronta ladensità empirica del punteggio del dado con la densità teorica dell'esercizio precedente.

36. Una fabbrica ha 3 linee produttive per dei chip di memoria. La linea 1 produce il50% dei chip, di cui il 4% sono difettosi, la linea 2 il 30% dei chip, di cui il 5% sonodifettosi, e la linea 3 il 20% dei chip, di cui l'1% sono difettosi. Si sceglie un chip a caso.

Trova la probabilità che il chip sia difettoso.1.

Sapendo che il chip è difettoso, trova la densità condizionata della linea produttivada cui il chip è uscito.

2.

Esercizi numerici

37. Sui dati M&Ms, sia R il numero di pastiglie rosse e N il numero totale di pastiglie.Calcola e disegna le densità empiriche di

R1.

N2.

R dato N > 57.3.

Distribuzioni discrete

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist1.html (7 di 8) [22/11/2001 17.46.29]

Page 72: Laboratorio virtuale di probabilità e statistica

38. Nei dati sulla cicala, sia G il sesso, S la specie e W il peso corporeo (in grammi).Calcola la densità empirica di

G1.

S2.

(G, S)3.

G dato W > 0.20 grammi.4.

Laboratorio virtuale > Distribuzioni > [1] 2 3 4 5 6 7 8 9Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Distribuzioni discrete

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist1.html (8 di 8) [22/11/2001 17.46.29]

Page 73: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni > 1 [2] 3 4 5 6 7 8 9

2. Distribuzioni continue

Distribuzioni continue

Al solito, supponiamo di avere un esperimento casuale con spazio campionario R emisura di probabilità P. Una variabile casuale X a valori in un sottinsieme S di Rn si diceavere distribuzione continua se

P(X = x) = 0 per ogni x appartenente a S.

Il fatto che X assuma ogni singolo valore con probabilità 0 può sembrare paradossale inprima battuta, ma non è concettualmente diverso dall'affermare che un intervallo di R puòavere lunghezza positiva anche se è composto da punti che hanno tutti lunghezza 0.Similmente, una regione di R2 può avere area positiva anche se composta di punti (ocurve) che hanno tutti area 0.

1. Mostra che,se C è un sottinsieme numerabile di S, allora P(X C) = 0.

Quindi, le distribuzioni continue sono diverse dalle distribuzioni discrete, per le quali tuttala massa di probabilità è concentrata su un insieme discreto. Per una distribuzionecontinua, la massa di probabilità è ripartita in senso continuo su S. Nota inoltre che Sstesso non può essere numerabile.

Densità delle distribuzioni continue

Supponiamo, di nuovo, che X abbia distribuzione continua su un sottinsieme S di Rn. Unafunzione a valori reali f definita su S si dice essere una funzione di densità di probabilitàper X se f soddisfa le seguenti proprietà:

f(x) 0 per x in S.1.

S f(x)dx = 1.2.

A f(x)dx = P(X A) per A S.3.

Se n > 1, gli integrali delle proprietà (b) e (c) sono multipli rispetto a sottinsiemi di Rn, e

dx = dx1 dx2 ··· dxn dove x = (x1, x2, ..., xn).

In realtà, tecnicamente, f è la denistà di X relativa a una misura n-dimensionale mn, chericordiamo essere data da

mn(A) = A 1dx per A Rn.

Distribuzioni continue

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist2.html (1 di 8) [22/11/2001 17.46.34]

Page 74: Laboratorio virtuale di probabilità e statistica

Notiamo che mn(S) dev'essere positivo (e può essere infinito). In particolare,

se n = 1, S dev'essere un sottinsieme di R di lunghezza positiva;1.

se n = 2, S dev'essere un sottinsieme di R2 di area positiva;2.

se n = 3, S dev'essere un sottinsieme di R3 di volume positivo.3.

In ogni caso, ricordiamo che i casi in poche dimensioni (n = 1, 2, 3), a parte le finalitàillustrative, non hanno particolare rilievo in probabilità. Gli esperimenti casuali piùimportanti di solito coinvolgono molte variabili casuali (cioè un vettore casule); raramentesi ha una variabile casuale singola e isolata. Notiamo infine che possiamo sempreestendere f per la densità su tutto Rn ponendo f(x) = 0 per gli x non appartenenti a S.Questa estensione a volte semplifica la notazione.

La proprietà (c) è particolarmente importante perché implica che la distribuzione diprobabilità di X è completamente individuata dalla funzione di densità. Di converso, ognifunzione che soddisfa le proprietà (a) e (b) è una funzione di densità di probabilità, per cuila proprietà (c) può essere utilizzata per definire una distribuzione continua su S.

Un elemento x appartenente a S per cui la densità f è massima è detto moda delladistribuzione. Se esiste un'unica moda, la si usa a volte come misura del centro delladistribuzione.

A differenza del caso discreto, la funzione di densità di una distribuzione continua non èunica. Notiamo che i valori di f su un insieme finito (o anche numerabile) di punti puòessere modificata con altri valori non negativi, e le proprietà (a), (b) e (c) continuerebberoa valere. Il fatto importante è che sono rilevanti solo gli integrali di f. Un'altra differenza èche f(x) può essere maggiore di 1; all'atto pratico, f può essere illimitato su S. Ricorda chef(x) non è una probabilità, è una densità di probabilità: f(x)dx è approssimativamente laprobabilità che X giaccia in un intervallo n-dimensionale centrato su x con lati dilunghezza dx1, ..., dxn, se tali lunghezze sono piccole.

Esempi

2. Sia f(t) = r exp(-rt) per t > 0, dove r > 0 è un parametro. Prova che f è una funzionedi densità di probabilità.

La distribuzione definita dalla funzione di densità dell'esercizio precedente è dettadistributzione esponenziale con parametro di velocità r. Questa distribuzione è utilizzataspesso per modellare durate aleatorie, sotto certe assunzioni. La distributzioneesponenziale è analizzata in dettaglio nel capitolo sui processi di Poisson.

3. La durata T di un certo apparecchio (in unità di 1000 ore) ha distribuzioneesponenziale con parametro 1/2. Trova P(T > 2).

4. Nell'esperimento esponenziale, poni r = 1/2. Simula 1000 replicazioni, aggiornandoogni 10, e osserva la convergenza della funzione di densità empirica alla sua controparteteorica.

Distribuzioni continue

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist2.html (2 di 8) [22/11/2001 17.46.34]

Page 75: Laboratorio virtuale di probabilità e statistica

5. Nel problema di Bertrand, un certo angolo casuale A ha funzione di densità f(a) =sin(a), 0 < a < / 2.

Prova che f è una funzione di densità.1.

Disegna il grafico di f e trova la moda.2.

Trova P(A < / 4).3.

6. Nell'esperimento di Bertrand, seleziona il modello con distanza uniforme. Simula200 replicazioni, aggiornando ogni volta, e calcola la probabilità empirica dell'evento {A< / 4}. Confrontala con la probabilità trovata nell'esercizio precedente.

7. Sia gn(t) = exp(-t) tn / n! per t > 0 dove n è un parametro intero non negativo.

Mostra che gn è una funzione di densità di probabilità per ogni n.1.

Mostra che gn(t) è crescente per t < n e decrescente per t > n, cosicché la moda è a t= n.

2.

Abbiamo mostrato nel paragrafo precedente sulle distribuzioni discrete che ft(n) = gn(t) èuna funzione di densità sugli interi non negativi per ogni t > 0. La distribuzioneindividuata dalla densità gn è detta distribuzione gamma; n + 1 è il parametro di forma. Ladistribuzione gamma è studiata in dettaglio nel capitolo sui processi di Poisson.

8. Supponi che la durata di un apparecchio T (in unità di 1000 ore) abbia distribuzionegamma con n = 2. Trova P(T > 3).

9. Nell'esperimento gamma, poni r = 1 e k = 3. Replica l'esperimento 200 volte,aggiornando ogni volta. Calcola la probabilità empirica dell'evento {T > 3} e confrontalacon la probabilità teorica dell'esercizio precedente.

La costruzione delle densità

10. Supponi che g sia una funzione non negativa su S. Sia

c = S g(x)dx.

Prova che se c è positivo e finito, allora f(x) = g(x) / c per x appartenente a S definisce unafunzione di densità di probabilità su S.

Osserva che i grafici di g e f sembrano identici, a parte la diversa scala dell'asse verticale.Il risultato dell'esercizio precedente può essere quindi usato per costruire funzioni didensità con le proprietà desiderate (dominio, forma, simmetria e così via). La costante c èdetta a volte costante di normalizzazione.

11. Sia g(x) = x2(1 - x) per 0 < x < 1.

Disegna il grafico di g.1.

Distribuzioni continue

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist2.html (3 di 8) [22/11/2001 17.46.34]

Page 76: Laboratorio virtuale di probabilità e statistica

Trova la funzione di densità di probabilità f proporzionale a g.2.

Trova P(1/2 < X < 1) dove X è una variabile casuale con la densità come riportatain (b).

3.

La distribuzione presentata nell'esercizio precedente è un'esempio di distribuzione beta.

12. Sia g(x) = 1 / xa per x > 1, dove a > 0 è un parametro.

Disegna il grafico di g.1.

Per 0 < a 1, prova che non esiste una funzione di densità di probabilitàproporzionale a g.

2.

Per a > 1, prova che la costante di normalizzazione è 1 / (a - 1).3.

La distribuzione definita nell'esercizio precedente è detta distribuzione di Pareto conparametro di forma a.

13. Sia g(x) = 1 / (1 + x2) per x appartenente a R.

Disegna il grafico di g.1.

Mostra che la costante di normalizzazione è .2.

Trova P(–1 < X < 1) dove X ha funzione di densità proporzionale a g.3.

La distribuzione definita nell'esercizio precedente è detta distribuzione di Cauchy, inonore di Augustin Cauchy. Si tratta di un membro della famiglia di distribuzioni t diStudent.

14. Nell'applet variabile casuale, seleziona la distribuzione t di Student. Poni n = 1 peravere la distribuzione di Cauchy e simula 1000 replicazioni, aggiornando ogni 10.Osserva come la funzione di densità empirica viene a coincidere con quella teorica.

15. Sia g(z) = exp(-z2 / 2).

Disegna il grafico di g.1.

Mostra che la costante di normalizzazione è (2 )1/2. Suggerimento: Se c indica lacostante di normalizzazione, esprimi c2 come integrale doppio e passa in coordinatepolari.

2.

La distribuzione definita nell'esercizio precedente è la distribuzione normalestandardizzata, forse la distribuzione più importante di tutta la probabilità.

16. Nell'applet variabile casuale, seleziona la distribuzione normale (i parametripredefiniti sono per la distribuzione normale standardizzata). Simula 1000 replicazioni,aggiornando ogni 10. Osserva come la funzione di densità empirica viene a coincidere conquella teorica.

17. Sia f(x, y) = x + y per 0 < x < 1, 0 < y < 1.

Mostra che f è una funzione di densità di probabilità1.

Trova P(Y > 2X) dove (X, Y) ha la densità riportata in (a).2.

Distribuzioni continue

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist2.html (4 di 8) [22/11/2001 17.46.34]

Page 77: Laboratorio virtuale di probabilità e statistica

18. Sia g(x, y) = x + y per 0 < x < y < 1.

Trova la funzione di densità di probabilità f proporzionale a g.1.

Trova P(Y > 2X) dove (X, Y) ha la densità riportata in (a).2.

19. Sia g(x, y) = x2y per 0 < x < 1, 0 < y < 1.

Trova la funzione di densità di probabilità f proporzionale a g.1.

Trova P(Y > X) dove (X, Y) ha la densità riportata in (a).2.

20. Sia g(x, y) = x2y per 0 < x < y < 1.

Trova la funzione di densità di probabilità f proporzionale a g.1.

Trova P(Y > 2X) dove (X, Y) ha la densità riportata in (a).2.

21. Sia g(x, y, z) = x + 2y + 3z per 0 < x < 1, 0 < y < 1, 0 < z < 1.

Trova la funzione di densità di probabilità f proporzionale a g.1.

Trova P(X < Y < Z) dove (X, Y, Z) ha la densità riportata in (a).2.

Distribuzioni uniformi continue

Gli esercizi seguenti trattano un'importante tipologia di distribuzioni continue.

22. Supponi che S sia sottinsieme di Rn con misura positiva e finita mn(S). Prova che

f(x) = 1 / mn(S) per x appartenente a S definisce una funzione di densità diprobabilità su S.

1.

P(X A) = mn(A) / mn(S) per A S se X ha la funzione di densità di (a).2.

Un variabile casuale X con la funzione di densità dell'esercizio 14 è detta averedistribuzione uniforme continua su S. La distribuzione uniforme su un rettangolo delpiano ha un ruolo fondamentale nei modelli geometrici.

23. Supponi che (X, Y) sia distribuito uniformemente sul quadrato S = (-6, 6)2. TrovaP(X > 0, Y > 0).

24. Nell'esperimento uniforme bivariato, seleziona quadrato nel menu a tendina.Simula 100 replicazioni, aggiornando ogni volta, osservando i punti della dispersione.Calcola la probabilità empirica dell'evento {X > 0, Y > 0} e confrontala con la probabilitàteorica.

25. Supponi che (X, Y) sia distribuito uniformemente sul triangolo S = {(x, y): -6 < y< x < 6}. Trova P(X > 0, Y > 0)

26. Nell'esperimento uniforme bivariato, seleziona triangolo nel menu a tendina.Simula 100 replicazioni, aggiornando ogni volta, osservando i punti della dispersione.

Distribuzioni continue

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist2.html (5 di 8) [22/11/2001 17.46.34]

Page 78: Laboratorio virtuale di probabilità e statistica

Calcola la probabilità empirica dell'evento {X > 0, Y > 0} e confrontala con la probabilitàteorica.

27. Supponi che (X, Y) sia distribuito uniformemente sul cerchio S = {(x, y): x2 + y2

< 36}. Trova P(X > 0, Y > 0).

28. Nell'esperimento uniforme bivariato, seleziona cerchio nel menu a tendina. Simula100 replicazioni, aggiornando ogni volta, osservando i punti della dispersione. Calcola laprobabilità empirica dell'evento {X > 0, Y > 0} e confrontala con la probabilità teorica.

29. Supponi che (X, Y, Z) sia distribuito uniformemente sul cubo (0, 1)3. Trova P(X <Y < Z)

Utilizzando la funzione di densità.1.

Utilizzando un argomento combinatorio. Suggerimento: Spiega perché ciascunadelle 6 permutazioni di (X, Y, Z) dev'essere equiprobabile.

2.

30. Il tempo T (in minuti) necessario per eseguire una certa operazione è distribuitouniformemente sull'intervallo (15, 60).

Trova la probabilità che l'operazione richieda più di 30 minuti.1.

Sapendo che l'operazione non è terminata dopo 30 minuti, trova la probabilità chesiano necessari più di altri 15 minuti.

2.

Densità condizionate

Supponi che X sia una variabile casuale a valori in un sottinsieme S di Rn, condistribuzione continua con funzione di densità f. La funzione di densità X, ovviamente, èbasata sulla misura di probabilità sottostante P sullo spazio campionario dell'esperimento,che indichiamo con R. Questa misura può essere una misura di probabilità condizionata,dato un evento E (sottinsieme di R), con P(E) > 0. La notazione consueta è

f(x | E), x S.

Si rammenti che, a parte la notazione, non si stanno introducendo nuovi concetti. Lafunzione riportata poc'anzi è una funzione di densità continua, ovvero soddisfa leproprietà (a) e (b), mentre la porprietà (c) diventa

A f(x | E)dx = P(X A | E) per A S.

Tutti i risultati che valgono per le densità in generale hanno controparti analoghe per ledensità condizionate.

31. Supponi che B S con P(X B) = B f(x)dx > 0. Prova che la densitàcondizionata di X dato X B è

f(x | X B) = f(x) / P(X B) per x B.1.

Distribuzioni continue

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist2.html (6 di 8) [22/11/2001 17.46.34]

Page 79: Laboratorio virtuale di probabilità e statistica

f(x | X B) = 0 per x Bc.2.

32. Supponi che S sia un sottinsieme di Rn con misura positiva e finita mn(S) e che B

S con mn(B) > 0. Mostra che se X è distribuito uniformemente su S, allora ladistribuzione condizionata di X dato X B è uniforme su B.

33. Supponi che (X, Y) abbia funzione di densità f(x, y) = x + y per 0 < x < 1, 0 < y <1. Trova la densità condizionata di (X, Y) dato X < 1/2, Y < 1/2.

Esercizi numerici

Se {x1, x2, ..., xn} Rn è un insieme di dati per una variabile continua, X, allora unafunzione di densità empirica può essere calcolata partizionando il campo di variazione deidati in sottinsiemi di ampiezza minore, e calcolare le densità di punti in ogni sottinsieme.Le funzioni di densità empirica sono studiate dettagliatamente nel capitolo sui campionicasuali.

34. Nei dati sulla cicala, BW indica il peso corporeo, BL la lunghezza corporea e G ilsesso. Costruisci una funzione di densità empirica per ciascuno dei seguenti e disegna talifunzioni in un grafico a barre:

BW1.

BL2.

BW dato G = femmina.3.

35. Nei dati sulla cicala, WL indica la lunghezza delle ali e WW la larghezza delle ali.Costruisci una funzione di densità empirica per (WL, WW).

Distribuzioni continue degeneri

Contrariamente al caso discreto, l'esistenza di una funzione di densità per unadistribuzione continua è un'assunzione che si fa. Una variabile casuale può averedistribuzione continua su un sottinsieme S di Rn ma senza funzione di densità; ladistribuzione è detta a volte degenere. Vediamo ora alcuni casi in cui tali distribuzionipossono presentarsi.

Supponiamo in primo luogo che X sia una variabile casuale che assume valori in unsottinsieme S di Rn con mn(S) = 0. È possibile che X abbia distribuzione continua, ma Xpuò non avere una densità relativa a mn. In particolare, la proprietà (c) della definizionepuò non valere, poiché l'integrale di sinistra sarebbe 0 per ogni sottinsieme A di S.Comunque, in molti casi, X può essere definita in termini di variabili casuali continue suspazi di dimensione minore che posseggono densità.

Per esempio, supponiamo che U sia una variabile casuale con distribuzione continua su unsottinsieme T di Rk (dove k < n), e che X = h(U) per qualche funzione continua h da T inRn. Ogni evento definito in termini di X può essere trasformato in un evento definito in

Distribuzioni continue

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist2.html (7 di 8) [22/11/2001 17.46.34]

Page 80: Laboratorio virtuale di probabilità e statistica

termini di U. L'esercizio seguente illustra questa situazione

36. Supponi che U sia distribuita uniformemente sull'intervallo (0, 2 ). Sia X =cos(U), Y = sin(U).

Prova che (X, Y) ha distribuzione continua sul cerchio C = {(x, y): x2 + y2 = 1}.1.

Prova che (X, Y) non ha una funzione di densità su C (rispetto a m2).2.

Trova P(Y > X).3.

Un'altra situazione di questo tipo si verifica quando un vettore casuale X appartenente aRn (n > 1) ha alcuni componenti con distribuzioni discrete e altri con distribuzionicontinue. Tali distribuzioni a componenti misti sono studiate più dettagliatamente nelparagrafo sulle distribuzioni miste; l'esercizio seguente, in ogni caso, illustra la situazione.

37. Supponi che X sia distribuita uniformemente su {0, 1, 2}, Y distribuitauniformemente su (0, 2) e che X e Y siano indipendenti.

Prova che (X, Y) ha distribuzione continua su {0, 1, 2} × (0, 2).1.

Prova che (X, Y) non ha una funzione di densità (a due dimensioni) su S (rispetto am2).

2.

Trova P(Y > X).3.

Infine, è possibile anche avere una distribuzione continua su un sottinsieme S di Rn conmn(S) > 0, ma di nuovo senza funzione di densità. Tali distribuzioni si dicono singolari, esi applicano raramente. Per un esempio, in ogni caso, vedi il caso del gioco aggressivo nelcapitolo su rosso e nero.

Laboratorio virtuale > Distribuzioni > 1 [2] 3 4 5 6 7 8 9Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Distribuzioni continue

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist2.html (8 di 8) [22/11/2001 17.46.34]

Page 81: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni > 1 2 [3] 4 5 6 7 8 9

3. Distribuzioni miste

Al solito, inziamo con l'introdurre un esperimento casuale definito su un certo spaziocampionario e con misura di probabilità P. In questo paragrafo, presenteremo due casi"misti" per la distribuzione di una variabile casuale: il caso in cui la distribuzione è inparte discreta e in parte continua e il caso in cui la variabile ha sia coordinate discrete checoordinate continue.

Distribuzioni di tipo misto

Supponi che X sia una variabile casuale relativa all'esperimento, a valori in un sottinsiemeS di Rn. X ha distribuzione di tipo misto se S può essere partizionato in sottinsiemi D e Ccon le seguenti proprietà:

D è numerabile e 0 < P(X D) < 1.1.

P(X = x) = 0 per x in C.2.

Quindi parte della distribuzione di X è concentrata su punti di un insieme discreto D; ilresto è ripartito in maniera continua su C.

Sia p = P(X D), cosicché 0 < p < 1. Possiamo definire su D una funzione di densitàdiscreta parziale.

1. Sia g(x) = P(X = x) per x appartenente a D. Prova che

g(x) 0 per x appartenente a D.1.

x in D g(x) = p.2.

P(X A) = x in A g(x) per A D.3.

Di solito, anche la parte continua della distribuzione è descritta da una funzione di densitàparziale. Supponiamo quindi che esista una funzione non negativa h su C tale che

P(X A) = A h(x)dx per A C.

2. Prova che C h(x)dx = 1 - p.

la distribuzione di X è individuata completamente dalle densità parziali g e h. In primoluogo, estendiamo le funzioni g e h a S nella maniera consueta: g(x) = 0 per xappartenente a C; h(x) = 0 per x appartenente a D.

Distribuzioni miste

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist3.html (1 di 4) [22/11/2001 17.46.38]

Page 82: Laboratorio virtuale di probabilità e statistica

3. Supponi che A S. Prova che

P(X A) = x in A g(x) + A h(x)dx.

Le distribuzioni condizionate su D e C sono, rispettivamente, solamente discreta esolamente continua.

4. Dimostra che la distribuzione condizionata di X dato X D è discreta con funzionedi densità

f(x | X D) = g(x) / p per x D.

5. Dimostra che la distribuzione condizionata di X dato X C è continua confunzione di densità

f(x | X C) = h(x) / (1 - p) per x C.

La distribuzione di X è pertanto un ibrido tra distibuzione discreta e continua. Ledistribuzioni miste sono studiate in maniera più generale nel paragrafo sulle distribuzionicondizionate.

6. Supponi che X abbia probabilità 1/2 distribuita uniformemente su {1, 2, ..., 8} eprobabilità 1/2 distribuita uniformemente sull'intervallo (0, 10). Trova P(X > 6).

7. Supponi che (X, Y) abbia probabilità 1/3 distribuita uniformemente su {0, 1, 2}2 eprobabilità 2/3 distribuita uniformemente su (0, 2)2. Trova P(Y > X).

Variabili troncate

Le distribuzioni di tipo misto si presentano in maniera naturale quando una variabilecasuale con distribuzione continua viene in qualche modo troncata. Per esempio,supponiamo che T sia la durata di un congegno e abbia funzione di densità f(t) per t > 0.Nel contesto di un test inerente la rottura di un congegno, non possiamo aspettareall'infinito, per cui possiamo scegliere una costante positiva a e registrare la seguentevariabile casuale:

U = T se T < a; U = a se T a.

8. Prova che U ha distribuzione mista; in particolare mostra che, con la notazione dicui sopra,

D = {a} e g(a) = {t: t > a} f(t)dt.1.

C = (0, a) e h(t) = f(t) per 0 < t < a.2.

9. Supponi che la durata T di un congegno (in unità di 1000 ore) abbia distribuzioneesponenziale f(t) = exp(-t), t > 0. Il test per il dispositivo deve avere termine dopo 2000

Distribuzioni miste

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist3.html (2 di 4) [22/11/2001 17.46.38]

Page 83: Laboratorio virtuale di probabilità e statistica

ore; si registra la durata troncata U. Trova

P(U < 1).1.

P(U = 2).2.

Supponiamo che X abbia distribuzione continua su R, con funzione di densità f. Lavariabile viene troncata a a e b (a < b) per creare una nuova variabile Y definita comesegue:

Y = a se X a; Y = X se a < X < b; Y = b se X b.

10. Mostra che Y ha distribuzione mista. In particolare, prova che

D = {a, b}, g(a) = {x: x < a} f(x)dx, g(b) = {x: x > b} f(x)dx.1.

C = (a, b) e h(x) = f(x) per a < x < b.2.

Coordinate miste

Supponiamo che X e Y siano variabili casuali relative al nostro esperimento, e che Xabbia distribuzione discreta a valori in un insieme numerabile S mentre Y ha distribuzionecontinua su un sottinsieme T di Rn. Allora (X, Y) ha distribuzione continua su qualchesottinsieme di S × T.

11. Dimostra che P[(X, Y) = (x, y)] = 0 per x appartenente a S, y appartenente a T.

Di solito, (X, Y) ha funzione di densità f su S × T nel senso seguente:

P[(X, Y) A × B] = x in A B f(x, y)dy per A S e B T,

12. Più in generale, per C S × T e x S, sia C(x) = {y T: (x, y) C}. Dimostrache

P[(X, Y) C] = x in S C(x) f(x, y)dy.

Tecnicamente, f è la densità di (X, Y) rispetto a una misura di conteggio su S e a unamisura n-dimensionale su T.

I vettori casuali con coordinate miste si presentano spesso nei problemi applicati. Peresempio, i dati sulla cicala contengono 4 variabili continue e 2 variabili discrete. I datiM&M contengono 6 variabili discrete e 1 variabile continua. I vettori con coordinatemiste si presentano anche quando si casualizza un parametro discreto per unadistribuzione continua, o un parametro continuo per una distribuzione discreta.

13. Sia f(1, y) = 1/3 per 0 < y < 1, f(2, y) = 1/6 per 0 < y < 2, f(3, y) = 1/9 per 0 < y <3.

Mostra che f è una densità mista nel senso precisato sopra, con S = {1, 2, 3}, T =1.

Distribuzioni miste

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist3.html (3 di 4) [22/11/2001 17.46.38]

Page 84: Laboratorio virtuale di probabilità e statistica

(0, 3).

Trova P(X > 1, Y < 1) dove (X, Y) ha densità f.2.

14. Sia f(p, k) = 6 C(3, k) pk + 1(1 - p)4 - k per k {0, 1, 2, 3} e p (0, 1).

Mostra che f è una densità mista nel senso precisato sopra.1.

Trova P(V < 1 / 2, X = 2) dove (V, X) ha densità f.2.

Come vedremo nel paragrafo sulle distribuzioni condizionate, la distribuzionedell'esercizio precedente serve a modellare il seguente esperimento: si seleziona unaprobabilità aleatoria V e poi si lancia tre volte una moneta con questa probabilità di testa;X è il numero di teste.

15. Sui dati M&M, sia N il numero totale di pastiglie e W il peso netto (in grammi).Costruisci una densità empirica per (N, W).

Laboratorio virtuale > Distribuzioni > 1 2 [3] 4 5 6 7 8 9Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Distribuzioni miste

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist3.html (4 di 4) [22/11/2001 17.46.38]

Page 85: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni > 1 2 3 [4] 5 6 7 8 9

4. Distribuzioni congiunte

Al solito, inziamo con l'introdurre un esperimento casuale definito su un certo spaziocampionario e con misura di probabilità P. Supponiamo ora che X e Y siano varaibilicasuali relative all'esperimento, e che X assuma valori in S e che Y assuma valori in T.Possiamo interpretare (X, Y) come variabile casuale a valori nell'insieme prodotto S × T.L'obiettivo di questo paragrafo è studiare come la distribuzione di (X, Y) si rapporta alledistribuzione di X e Y. In questo contesto, la distribuzione di (X, Y) è detta distribuzionecongiunta di (X, Y), mentre le distribuzioni di X e di Y si dicono distribuzioni marginali.Notiamo che X e Y possono avere valori vettoriali.

Il primo punto, molto importante, che rileviamo è che le distribuzioni marginali possonoessere ricavate dalle distribuzioni congiunte, ma non il contrario.

1. Dimostra che

P(X A) = P[(X, Y) A × T] per A S.1.

G(Y B) = P[(X, Y) S × B] per B T.2.

Se X e Y sono indipendenti, allora per definizione,

P[(X, Y) A × B] = P(X A)P(Y B) per A S, B T,

e, come abbiamo notato in precedenza, ciò individua completamente la distribuzione (X,Y) su S × T. Al contrario, se X e Y sono dipendenti, la distribuzione congiunta non puòessere ricavata dalle distribuzioni marginali. Quindi, in generale, la distribuzionecongiunta contiene molta più informazione delle singole distribuzioni marginali.

Densità congiunte e marginali

Nel caso discreto, nota che S × T è numerabile se e solo se S e T sono numerabili.

2. Supponi che (X, Y) abbia distribuzione discreta con funzione di densità f su uninsieme numerabile S × T. Mostra che X e Y hanno funzioni di densità rispettivamente g eh, date da

g(x) = y in T f(x, y) per x appartenente a S.1.

h(y) = x in S f(x, y) per y appartenente a T.2.

Per il caso continuo, supponi che S Rj, T Rk cosicché S × T Rj + k.

3. Supponi che (X, Y) abbia distribuzione continua su S × T con funzione di densità f.Mostra che X e Y hanno distribuzione continua con funzione di densità rispettivamente g

Distribuzioni congiunte

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist4.html (1 di 7) [22/11/2001 17.46.43]

Page 86: Laboratorio virtuale di probabilità e statistica

e h, date da/p>

g(x) = T f(x, y)dy per x appartenente a S.1.

h(y) = S f(x, y)dx per y appartenente a T.2.

Nel contesto degli esercizi 1 e 2, f è detta funzione di densità congiunta di (X, Y), mentreg e h sono dette funzioni di densità marginali, rispettivamente di X e di Y. Nel caso diindipendenza, la densità congiunta è il prodotto delle densità marginali.

4. Supponiamo che X e Y siano indipendenti, entrambi con distribuzione discreta oentrambi con distribuzione continua. Siano g e h, rispettivamente, le funzioni di densità diX e Y. Dimostra che (X, Y) ha funzione di densità f data da:

f(x, y) = g(x)h(y) per x S e y T.

L'esercizio seguente è specualare all'esercizio 4. Se la funzione di densità congiunta puòessere fattorizzata in una funzione di solo x e di solo y, allora X e Y sono indipendenti.

5. Supponi che (Y, Y) abbiano distribuzione discreta o continua, con funzione didensità f. Supponi che

f(x, y) = u(x)v(y) per x appartenente a S e y appartenente a T.

dove u è funzione di S e v è funzione di T. Prova che X e Y sono indipendenti e che esisteuna costante diversa da zero c tale che le funzioni g e h riportate sotto sono densità per Xe Y, rispettivamente.

g(x) = cu(x) per x appartenente a S; h(y) = v(y) / c per y in T

Esercizi

6. Supponiamo di lanciare due dadi equilibrati e di registrare la sequenza dei punteggi(X1, X2). Siano Y = X1 + X2 e Z = X1 - X2 rispettivamente la somma e la differenza deipunteggi.

Trova la densità di (Y, Z).1.

Trova la densità di Y2.

Trova la densità di Z.3.

Y e Z sono indipendenti?4.

7. Supponiamo di lanciare due dadi equilibrati e di registrare la sequenza dei punteggi(X1, X2). Siano U = min{X7, X2} e V = max{X5, X2} rispettivamente il massimo e ilminimo dei punteggi.

Trova la densità di (U, V).1.

Trova la densità di U.2.

Distribuzioni congiunte

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist4.html (2 di 7) [22/11/2001 17.46.43]

Page 87: Laboratorio virtuale di probabilità e statistica

Trova la densità di V.3.

U e V sono indipendenti?4.

8. Supponi che (X, Y) abbia funzione di densità f(x, y) = x + y per 0 < x < 1, 0 < y < 1.

Trova la densità di X.1.

Trova la densità di Y.2.

X e Y sono indipendenti?3.

9. Supponi che (X, Y) abbia funzione di densità f(x, y) = 2(x + y) per 0 < x < y < 1.

Trova la densità di X.1.

Trova la densità di Y.2.

X e Y sono indipendenti?3.

10. Supponi che (X, Y) abbia funzione di densità f(x, y) = 6x2y per 0 < x < 1, 0 < y <1.

Trova la densità di X.1.

Trova la densità di Y.2.

X e Y sono indipendenti?3.

14. Supponi che (X, Y) abbia funzione di densità f(x, y) = 15 x2y per 0 < x < y < 1.

Trova la densità di X.1.

Trova la densità di Y.2.

X e Y sono indipendenti?3.

12. Supponi che (X, Y, Z) abbia funzione di densità di probabilità f data da

f(x, y, z) = 2z(x + y) per 0 < x < 1, 0 < y < 1, 0 < z < 1.

Trova la densità di ciascuna coppia di variabili.1.

Trova la densità di ciascuna variabile.2.

Determina le relazioni di dipendenza tra le variabili.3.

Distribuzioni multivariate uniformi

Le distribuzioni multivariate uniformi danno un'interpretazione geometrica di alcuniconcetti presentati in questo paragrafo. Ricordiamo in primo luogo che la misura standardsu Rn è

mn(A) = G 1dx per A Rn.

In particolare, m1 è la misura di lunghezza su R, m2 è la misura di area su R2 e m3 è la

misura di volume su R3.

Distribuzioni congiunte

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist4.html (3 di 7) [22/11/2001 17.46.43]

Page 88: Laboratorio virtuale di probabilità e statistica

Supponi che X assuma valori in Rj, che Y assuma valori in Rk e che (X, Y) sia distribuitouniformemente su R Rj + k dove mj + k(R) è positivo e finito. Quindi, per definizione, lafunzione di densità congiunta di (X, Y) è

f(x, y) = 1 / mj + k(R) per (x, y) R (and f(x, y) = 0 altrimenti).

13. Dimostra che X assume valori in un insieme S = {x: (x, y) R per qualche y} chela funzione di densità g di X è proporzionale alla misura incrociata:

g(x) = mk{y: (x, y) R}/ mj + k(R) per x S

14. Prova che Y assume valori in un insieme T = {y: (x, y) R per qualche x} che lafunzione di densità h di Y è proporzionale alla misura incrociata:

h(y) = mj{x: (x, y) R}/ mj + k(R) per y S

In particolare, nota dagli esercizi precedenti che X e Y non sono, in generale,normalmente distribuiti.

15. Supponi che R = S × T. Dimostra che

X è distribuita uniformemente su S.1.

Y è distribuita uniformemente su T.2.

X e Y sono indipendenti.3.

16. Supponi che (X, Y) sia distribuito uniformemente sul quadrato (-6, 6) × (-6, 6).

Trova la funzione di densità congiunta di (X, Y)1.

Trova la funzione di densità di X2.

Trova la funzione di densità di Y.3.

X Y sono indipendenti?4.

17. Nell'esperimento bivariato uniforme, seleziona quadrato dal menu a tendina.Esegui 5000 replicazioni, aggiornando ogni 10. Osserva i punti della dispersione e igrafici delle distribuzioni marginali. Interpreta i risultati nel contesto della discussione finqui svolta.

18. Supponi che (X, Y) sia distribuito uniformemente sul triangolo R = {(x, y): -6 < y< x < 6}.

Trova la funzione di densità congiunta di (X, Y)1.

Trova la funzione di densità di X2.

Trova la funzione di densità di Y.3.

X e Y indipendenti?4.

19. Nell'esperimento bivariato uniforme, seleziona triangolo dal menu a tendina.Esegui 5000 replicazioni, aggiornando ogni 10. Osserva i punti della dispersione e igrafici delle distribuzioni marginali. Interpreta i risultati nel contesto della discussione fin

Distribuzioni congiunte

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist4.html (4 di 7) [22/11/2001 17.46.43]

Page 89: Laboratorio virtuale di probabilità e statistica

qui svolta.

20. Supponi che (X, Y) sia distribuito uniformemente sul cerchio R = {(x, y): x2 + y2

< 36}.

Trova la funzione di densità congiunta di (X, Y)1.

Trova la funzione di densità di X2.

Trova la funzione di densità di Y.3.

X e Y indipendenti?4.

21. Nell'esperimento bivariato uniforme, seleziona cerchio dal menu a tendina. Esegui5000 replicazioni, aggiornando ogni 10. Osserva i punti della dispersione e i grafici delledistribuzioni marginali. Interpreta i risultati nel contesto della discussione fin qui svolta.

22. Supponi che (X, Y, Z) sia distribuito uniformemente sul cubo (0, 1)3.

Riporta la funzione di densità congiunta di (X, Y, Z)1.

Trova la funzione di densità di ciascuna coppia di variabili.2.

Trova la funzione di densità di ciascuna variabile.3.

Determina le relazioni di dipendenza tra le variabili.4.

23. Supponi che (X, Y, Z) sia distribuito uniformemente su {(x, y, z): 0 < x < y < z <1}. Trova

Riporta la funzione di densità congiunta di (X, Y, Z)1.

Trova la funzione di densità di ciascuna coppia di variabili.2.

Trova la funzione di densità di ciascuna variabile.3.

Determina le relazioni di dipendenza tra le variabili.4.

24. Supponi che g sia una funzione di densità di probabilità per una distribuzionecontinua su un sottinsieme S di Rn. Sia

R = {(x, y): x S, 0 < y < g(x)} Rn + 1.

Prova che se (X, Y) è distribuito uniformemente su R, allora X ha funzione di densità g.Disegna il caso n = 1.

Coordinate miste

I risultati presentati in questo paragrafo possiedono analoghi naturali nel caso in cui (X,Y) ha coordinate con diversi tipi di distribuzione, come discusso nel paragrafo sulledistribuzioni miste. Per esempio, supponiamo che X abbia distribuzione discreta, Y abbiadistribuzione continua, e che (X, Y) abbia densità congiunta f su S × T. I risultati degliesercizi 2(a), 3(b), 4 e 5 valgono ancora.

25. Supponi che X assuma valori in {1, 2, 3}, che Y assuma valori in (0, 3), condensità congiunta f given by

Distribuzioni congiunte

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist4.html (5 di 7) [22/11/2001 17.46.43]

Page 90: Laboratorio virtuale di probabilità e statistica

f(1, y) = 1/3 per 0 < y < 1, f(2, y) = 1/6 per 0 < y < 2, f(3, y) = 1/9 per 0 < y < 3.

Trova la funzione di densità di X1.

Trova la funzione di densità di Y.2.

X e Y indipendenti?3.

26. Supponi che V assuma valori in (0, 1) e che X assuma valori in {0, 1, 2, 3}, condensità congiunta f data da

f(p, k) = 6C(3, k) pk + 1(1 - p)4 - k per k {0, 1, 2, 3} e p (0, 1).

Trova la densità di V.1.

Trova la densità di X.2.

V e X sono indipendenti?3.

Come avremo modo di vedere nel paragrafo sulle distribuzioni condizionate, ladistribuzione dell'esercizio precedente modella questo esperimento: si seleziona unaprobabilità casuale V e poi si lancia tre volte una moneta con questa probabilità di testa; Xè il numero di teste.

Esercizi numerici

27. Nei dati sulla cicala, G indica il sesso e S la specie.

Trova la densità empirica di (G, S).1.

Trova la densità empirica di G.2.

Trova la densità empirica di S.3.

Credi che S e G siano indipendenti?4.

28. Nei dati sulla cicala, BW indica il peso corporeo e BL la lunghezza del corpo (inmillimetri).

Costruisci la densità empirica per (BW, BL).1.

Trova la corrispondente densità empirica per BW.2.

Trova la corrispondente densità empirica per BL.3.

Credi che BW e BL siano indipendenti?4.

29. Nei dati sulla cicala, G indica il sesso e BW il peso corporeo (in grammi).

Costruisci la densità empirica per (G, BW).1.

Trova la corrispondente densità empirica per G.2.

Trova la corrispondente densità empirica per BW.3.

Credi che G e BW siano indipendenti?4.

Laboratorio virtuale > Distribuzioni > 1 2 3 [4] 5 6 7 8 9

Distribuzioni congiunte

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist4.html (6 di 7) [22/11/2001 17.46.43]

Page 91: Laboratorio virtuale di probabilità e statistica

Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Distribuzioni congiunte

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist4.html (7 di 7) [22/11/2001 17.46.43]

Page 92: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni > 1 2 3 4 [5] 6 7 8 9

5. Distribuzioni condizionate

Al solito, iniziamo introducendo un esperimento casuale con spazio campionario R emisura di probabilità P su R. Supponiamo che X sia una variabile casuale relativaall'esperimento, a valori in un insieme S. L'obiettivo di questo paragrafo è studiare lamisura di probabilità condizionata su R dato X = x, con x appartenente a S. Vogliamoquindi definire e studiare

P(A | X = x) per A R e per x appartenente S.

Vedremo che X ha distribuzione discreta, per cui non si introducono nuovi concetti, ed èsufficiente la semplice definizione della probabilità condizionata. Quando X hadistribuzione continua, invece, serve un approccio fondamentalmente diverso.

Definizioni e proprietà principali

Supponiamo in primo luogo che X abbia distribuzione discreta con funzione di densità g.S è quindi numerabile e si può assumere che g(x) > 0 per x appartenente a S.

1. Prova che

P(A | X = x) = P(X = x, A) / g(x) for A R, x in S.

2. Prova la versione seguente legge delle probabilità totali

P(X B, A) = x in B P(A | X = x)g(x) per A R, B S.

Di converso, la legge delle probabilità totali individua completamente la distribuzionecondizionata dato X = x.

3. Supponi che Q(x, A), per x S, A R, soddisfi

P(A, X B) = x in B Q(x, A) g(x) per B S.

Dimostra che Q(x, A) = P(A | X = x) per x S, A R.

Supponiamo ora che X abbia distribuzione continua su S Rn, con funzione di densitàg. Assumiamo g(x) > 0 per x appartenente a S. Contrariamente al caso discreto, nonpossiamo utilizzare la semplice probabilità condizionata per definire la probabilitàcondizionata di un evento dato X = x, poiché l'evento a cui si condiziona ha probabilità 0per qualsiasi x. Ad ogni modo, il concetto dovrebbe avere senso. Se eseguiamo realmentel'esperimento, X assumerà un certo valore x (anche se, a priori, tale eventom si verificacon probabilità 0), e sicuramente l'informazione X = x finirà per alterare le probabilità che

Distribuzioni condizionate

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist5.html (1 di 8) [22/11/2001 17.46.49]

Page 93: Laboratorio virtuale di probabilità e statistica

assegnamo agli altri eventi. Un approccio naturale è quello di utilizzare i risultati ottenutinel caso discreto come definizioni per il caso continuo. Quindi, basandosi sullacaratterizzazione di cui sopra, definiamo la probabilità condizionata

P(A | X = x) per x appartenente a S, A R.

richiedendo che valga la legge delle probabilità totali:

P(A, X B) = B P(A | X = x) g(x)dx per ogni B S.

Per il momento, accetteremo il fatto che P(A | X = x) possa essere definito attraversoquesta condizione. Tuttavia, ritorneremo su questo punto nel paragrafo sul valore attesocondizionato nel capitolo sul valore atteso.

Il teorema di Bayes, che prende nome da Thomas Bayes, individua una formula per ladensità condizionata di X dato A, in termini della densità di X e la probabilitàcondizionata di A dato X = x.

4. Sia A un evento con P(A) > 0. Prova che la densità condizionata di X dato A è

g(x | A) = g(x)P(A | X = x) / s in S g(s)P(A | X = s) se X è discreta.1.

g(x | A) = g(x)P(A | X = x) / S g(s)P(A | X = s)ds se X è continua.2.

Nel contesto del teorema di Bayes, g è detta densità a priori di X e g( · | A) è la densità sposteriori di X dato A.

Densità condizionate

Le definizioni e i risultati di cui sopra si applicano, ovviamente, se A è un evento definitoin termini di un'altra variabile casuale del nostro esperimento.

Supponiamo quindi che Y sia una variabile casuale a valori in T. Allora (X, Y) è unavariabile casuale a valori nell'insieme prodotto S × T, che assumiamo avere funzione didensità di probabilità (congiunta) f. (In particolare, assumiamo una delle distribuzionistandard: discreta congiunta, continua congiunta con densità, o componenti miste condensità). Come prima, g indica la funzione di densità di X e assumiamo che g(x) > 0 per xappartenente a S.

5. Dimostra che h(y | x) è una funzione di densità in y per ogni x in S:

h(y | x) = f(x, y) / g(x) per x S, y T.

Il prossimo esercizio mostra che h(y | x), in funzione di y, è la densità condizionata di Ydato X = x.

6. Dimostra che, per x S, B T,

Distribuzioni condizionate

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist5.html (2 di 8) [22/11/2001 17.46.49]

Page 94: Laboratorio virtuale di probabilità e statistica

P(Y B | X = x) = y in B h(y | x) se Y ha distribuzione discreta.1.

P(Y B | X = x) = B h(y | x)dy se Y ha distribuzione continua.2.

Il teorema seguente è una versione del teorema di Bayes per le funzioni di densità.Usiamo la notazione definita poco sopra, e in più indichiamo con g(x | y) la densitàcondizionata di X in x appartenente a S dato Y = y appartenente a T.

7. Mostra che per x appartenente a S, y appartenente a T,

g(x | y) = h(y | x) g(x) / s in S h(y | s) g(s) se X ha distribuzione discreta.1.

g(x | y) = h(y | x) g(x) / S h(y | s) g(s)ds se X ha distribuzione continua.2.

Nel contesto del teorema di Bayes, g è la densità a priori di X e g(· | y) è la densità aposteriori di X dato Y = y.

Intuitivamente, X e Y dovrebbero essere indipendenti se e solo se le distribuzionicondizionate sono uguali alle corrispondenti distribuzioni non condizionate.

8. Prova che le seguenti condizioni sono equivalenti:

X e Y sono indipendenti.1.

h(y | x) = h(y) per ogni x S e y T.2.

g(x | y) = g(x) per ogni x S e y T.3.

In molti casi le distribuzioni condizionate si presentano quando uno dei parametri delladistribuzione viene randomizzato. Nota questa situazione in alcuni degli esercizi cheseguono.

Esercizi numerici

9. Supponi di lanciare due dadi equilibrati e di registrare la sequenza dei punteggi (X1,X2). Siano U = min{X1, X2} e V = max{X1, X2} rispettivamente il minimo e il massimodei punteggi.

Trova la densità condizionata di U dato V = v per ogni v {1, 2, ..., 6}1.

Trova la densità condizionata di V dato U = u per ogni u {1, 2, ..., 6}2.

10. Nell'esperimento dado-moneta si lancia un dado equilibrato e poi si lancia unamoneta bilanciata il numero di volte indicato dal dado. Sia N il punteggio del dado e X ilnumero di teste.

Trova la densità congiunta di (N, X).1.

Trova la densità di X.2.

Distribuzioni condizionate

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist5.html (3 di 8) [22/11/2001 17.46.49]

Page 95: Laboratorio virtuale di probabilità e statistica

Trova la densità condizionata di N dato X = k per ogni k.3.

11. Nell'esperimento dado-moneta, seleziona dado e moneta equilibrati.

Simula 1000 replicazioni, aggiornando ogni 10. Confronta la funzione di densitàempirica di X con la densità teorica riportata nell'esercizio precedente.

1.

Simula 200 replicazioni, aggiornando ogni volta. Calcola la funzione di densitàcondizionata empirica di N dato X = k per ogni k, e confrontala con la funzione didensità dell'esercizio precedente.

2.

12. Nell'esperimento moneta-dado, si lancia una moneta bilanciata. Se esce croce, silancia un dado equilibrato; se esce testa si lancia un dado piatto uno-sei (le facce 1 e 6hanno probabilità 1/4 e le facce 2, 3, 4 e 5 hanno probabilità 1/8). Sia I il punteggio dellamoneta (0 croce e 1 testa) e X il punteggio del dado.

Trova la densità congiunta di (I, X).1.

Trova la densitàì di X.2.

Trova la densità condizionata di I dato X = x per ogni x appartenente a {1, 2, 3, 4,5, 6}.

3.

13. Nell'esperimento moneta-dado, seleziona le impostazioni dell'esercizio precedente.

Simula 1000 replicazioni, aggiornando ogni 10. Confronta la funzione di densitàempirica di X con la densità teorica riportata nell'esercizio precedente.

1.

Simula 200 replicazioni, aggiornando ogni volta. Calcola la funzione di densitàcondizionata empirica di N dato X = 2, e confrontala con la funzione di densitàdell'esercizio precedente.

2.

14. Supponi che una scatola contenga 12 monete: 5 sono bilanciate, 4 sono sbilanciatecon probabilità di testa 1/3 e 3 hanno due teste. Si estrae a caso una moneta e la si lanciadue volte. Sia V la probabilità di testa della moneta selezionata, e X il numero di teste.

Trova la funzione di densità congiunta di (V, X).1.

Trova la funzione di densità di X.2.

Trova la densità condizionata di V dato X = k per k = 0, 1, 2.3.

15. Supponi che in una scatola vi siano 5 lampadine, indicate con numeri da 1 a 5. Ladurata di una lampadina n (in mesi) ha distribuzione esponenziale con parametro divelocità n. Si estrae a caso una lampadina e la si mette alla prova

Trova la probabilità che la lampadina estratta duri più di un mese.1.

Sapendo che la lampadina dura più di un mese, trova la densità condizionata delnumero della lampadina.

2.

16. Supponi che N abbia distribuzione di Poisson con parametro 1, e dato N = n, Xabbia distribuzione binomiale con parametri n e p.

Trova la densità congiunta di (N, X).1.

Trova la densità di X.2.

Distribuzioni condizionate

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist5.html (4 di 8) [22/11/2001 17.46.49]

Page 96: Laboratorio virtuale di probabilità e statistica

Trova la densità condizionata di N dato X = k.3.

17. Supponi che X sia distribuito uniformemente su {1, 2, 3}, e dato X = i, Y siadistribuito uniformemente sull'intervallo (0, i).

Trova la densità congiunta di (X, Y).1.

Trova la densità di Y.2.

Trova la densità condizionata di X dato Y = y per y appartenenete a (0, 3).3.

18. Supponi che (X, Y) abbia funzione di densità f(x, y) = x + y per 0 < x < 1, 0 < y <1.

Trova la densità condizionata di X dato Y = y1.

Trova la densità condizionata di Y dato X = x.2.

X e Y sono indipendenti?3.

19. Supponi che (X, Y) abbia funzione di densità f(x, y) = 2(x + y) for 0 < x < y < 1.

Trova la densità condizionata di X dato Y = y1.

Trova la densità condizionata di Y dato X = x.2.

X e Y sono indipendenti?3.

20. Supponi che (X, Y) abbia funzione di densità f(x, y) = 15 x2y per 0 < x < y < 1.

Trova la densità condizionata di X dato Y = y1.

Trova la densità condizionata di Y dato X = x.2.

X e Y sono indipendenti?3.

21. Supponi che (X, Y) abbia funzione di densità f(x, y) = 6 x2y per 0 < x < 1, 0 < y <1.

Trova la densità condizionata di X dato Y = y1.

Trova la densità condizionata di Y dato X = x.2.

X e Y sono indipendenti?3.

22. Supponi che V abbia densità g(p) = 6p(1 - p) per 0 < p < 1. Dato V = p, si lanciatre volte una moneta con probabilità di testa p. Sia X il numero di teste.

Trova la densità congiunta di (V, X).1.

Trova la densità di X.2.

Trova la densità condizionata di V dato X = k per k = 0, 1, 2, 3. Disegnali suglistessi assi.

3.

Confronta l'esercizio 22 con l'esercizio 14. Nell'esercizio 22, si scegli di fatto una monetada una scatola che contiene infiniti tipi di monete.

23. Supponi che X si distribuita uniformemente su (0, 1), e che dato X = x, Y siadistribuita uniformemente su (0, x).

Distribuzioni condizionate

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist5.html (5 di 8) [22/11/2001 17.46.49]

Page 97: Laboratorio virtuale di probabilità e statistica

Trova la densità congiunta di (X, Y).1.

Trova la densità di Y.2.

Trova la densità condizionata di X dato Y = y appartenente a (0, 1).3.

Distribuzioni uniformi multivariate

Le distribuzioni uniformi multivariate costituiscono un'interpretazione geometrica dialcuni dei concetti presentati in questo paragrafo. Ricordiamo prima di tutto che la misurastandard su Rn è

mn(A) = A 1dx per A Rn.

In particolare, m1 è la misura di lunghezza su R, m2 è la misura di area su R2 e m3 è la

misura di volume su R3.

Supponiamo ora che X assuma valori in Rj, che Y assuma valori in Rk e che (X, Y) siadistribuito uniformemente su R Rj + k dove mj + k(R) è positivo e finito. Quindi, perdefinizione, la funzione di densità congiunta di (X, Y) è

f(x, y) = 1 / mj + k(R) per (x, y) R (e f(x, y) = 0 altrimenti).

24. Mostra che la distribuzione condizionata di Y dato X = x è distribuitauniformemente sulla sezione incrociata

{y Rk: (x, y) R}.

25. Mostra che la distribuzione condizionata di X dato Y = y è distribuitauniformemente sulla sezione incrociata

{x Rj: (x, y) R}.

Nell'ultimo paragrafo sulle distribuzioni congiunte, abbiamo visto che anche se (X, Y) èdistribuito uniformemente, le distribuzioni marginali di X e Y non sono in genereuniformi. Ma, come abbiamo visto, le distribuzioni condizionate sono sempre uniformi.

26. Supponi che (X, Y) sia distribuito uniformemente sul quadrato R = [-6, 6]2.

Trova la densità condizionata di Y dato X = x (-6, 6).1.

Trova la densità condizionata di X dato Y = y (-6, 6).2.

Prova che X e Y sono indipendenti.3.

27. Nell'esperimento uniforme bivariato, seleziona quadrato dal menu a tendina.Simula 5000 replicazioni, aggiornando ogni 10. Osserva i punti della dispersione e igrafici delle distribuzioni marginali. Interpreta i risultati nel contesto della discussioneprecedente.

28. Supponi che (X, Y) sia distribuito uniformemente sul triangolo R = {(x, y): -6 < y

Distribuzioni condizionate

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist5.html (6 di 8) [22/11/2001 17.46.49]

Page 98: Laboratorio virtuale di probabilità e statistica

< x < 6} R2.

Trova la densità condizionata di Y dato X = x (-6, 6).1.

Trova la densità condizionata di X dato Y = y (-6, 6).2.

Prova che X e Y sono dipendenti.3.

29. Nell'esperimento uniforme bivariato, seleziona triangolo dal menu a tendina.Simula 5000 replicazioni, aggiornando ogni 10. Osserva i punti della dispersione e igrafici delle distribuzioni marginali. Interpreta i risultati nel contesto della discussioneprecedente.

30. Supponi che (X, Y) sia distribuito uniformemente sul cerchio R = {(x, y): x2 + y2

< 36}.

Trova la densità condizionata di Y dato X = x (-6, 6).1.

Trova la densità condizionata di X dato Y = y (-6, 6).2.

Prova che X e Y sono dipendenti.3.

31. Nell'esperimento uniforme bivariato, seleziona cerchio dal menu a tendina. Simula5000 replicazioni, aggiornando ogni 10. Osserva i punti della dispersione e i grafici delledistribuzioni marginali. Interpreta i risultati nel contesto della discussione precedente.

32. Supponi che (X, Y, Z) sia distribuito uniformemente su R = {(x, y, z): 0 < x < y <z} R3.

Trova la densità condizionata di ciascuna coppia di variabili data una terzavariabile.

1.

Trova la densità condizionata di ciascuna variabile dati i valori delle altre due.2.

Distribuzioni mistura

Coi nostri soliti insiemi S e T, supponiamo che Px sia una misura di probabilità su T perogni x S. Supponiamo inoltre che g sia una funzione di densità di probabilità su S.Possiamo ottenere una nuova misura di probabilità su T ponderando (o miscelando) ledistribuzioni date sulla base di g.

33. Supponiamo in primo luogo che S sia numerabile, e che g sia una funzione didensità di probabilità discreta su S. Prova che la P definita sotto è una misura diprobabilità su T:

P(B) = x in S g(x) Px(B) per B T.

34. Nel contesto dell'esercizio precedente, supponi che Px sia una distribuzionediscreta (rispettivamente continua) con funzione di densità hx per ogni x appartenente a S.Prova che anche P è discreta (rispettivamente continua) con funzione di densità h data da

Distribuzioni condizionate

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist5.html (7 di 8) [22/11/2001 17.46.49]

Page 99: Laboratorio virtuale di probabilità e statistica

h(y) = x appartenente a S g(x) hx(y) per y appartenente a T.

35. Supponi ora che S sia un sottinsieme di Rn e che g sia una funzione di densità diprobabilità continua su S. Mostra che la P definita sotto è una misura di probabilità su T:

P(B) = S g(x)Px(B)dx per B T.

36. Nel contesto dell'esercizio precedente, supponi che Px sia una distribuzionediscreta (rispettivamente continua) con funzione di densità hx per ogni x appartenente a S.Prova che anche P è discreta (rispettivamente continua) con funzione di densità h data da

h(y) = S g(x) hx(y) dx per y appartenente a T.

In entrambi i casi, la distribuzione P è detta mistura delle distribuzioni Px, x S, condensità di mistura g.

Si può avere una mistura di distriubuzioni senza avere variabili casuali definite su unospazio di probabilità comune. In ogni caso, le misture sono intimamente legate alledistribuzioni condizionate. Per tornare al nostro ambiente di riferimento, supponiamo cheX e Y siano variabili casuali relative a un esperimento a valori, rispettivamente, in S e T.Supponiamo che X abbia distribuzione discreta oppure continua, con densità g.L'esercizio seguente è semplicemente una diversa versione del teorema delle probabilitàtotali.

37. Prova che la distribuzione di Y è una mistura delle distribuzioni condizionate di Ydato X = x, in x appartenente a S, con densità di mistura g.

38. Supponi che X sia una variabile casuale a valori in S Rn, con ditribuzione mistadiscreta e continua. Prova che la distribuzione di X è una mistura di una distribuzionediscreta e una continua, nel senso definito sopra.

Laboratorio virtuale > Distribuzioni > 1 2 3 4 [5] 6 7 8 9Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Distribuzioni condizionate

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist5.html (8 di 8) [22/11/2001 17.46.49]

Page 100: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni > 1 2 3 4 5 [6] 7 8 9

6. Funzioni di ripartizione

Definizione

Al solito, iniziamo introducendo un esperimento casuale su un certo spazio campionario econ misura di probabilità P. Supponiamo che X sia una variabile casuale a valori realirelativa all'esperimento. La funzione di ripartizione (cumulata) di X è la funzione F datada

F(x) = P(X x) per x appartenente a R.

Tale funzione è estremamente importante poiché ha senso per qualsiasi tipo di variabile,indipendentemente dal fatto che la distribuzione sia discreta, continua, o anche mista, epoiché individua completamente la distribuzione di X.

Abbrevieremo come segue alcuni dei limiti di F:

F(x+) = lim F(t) per t x+.●

F(x-) = lim F(t) per t x-.●

F( ) = lim F(t) per t .●

F(- ) = lim F(t) per t -●

Proprietà fondamentali

Le proprietà elencate negli esercizi seguenti individuano completamente le funzioni diripartizione. I teoremi di continuità della probabilità saranno utili per le dimostrazioni.

1. Prova che F è crescente: se x y allora F(x) F(y).

2. Dimostra che F(x+) = F(x) per x appartenente a R. Pertanto F è continua da destra:

3. Mostra che F(x-) = P(X < x) per x appartenente a R. Quindi, F ha limiti sinistri:

4. Prova che F( ) = 1.

5. Prova che F(- ) = 0.

L'esercizio seguente mostra come la funzione di ripartizione possa essere utilizzata percalcolare la probabilità che X cada in un certo intervallo. Ricorda che una distribuzione diprobabilità su R è completamente individuata dalle probabilità degli intervalli; pertanto, lafunzione di ripartizione individua la distribuzione di X. In ciascun caso, il risultato utile è

P(B Ac) = P(B) - P(A) se A B.

Funzioni di ripartizione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist6.html (1 di 9) [22/11/2001 17.46.56]

Page 101: Laboratorio virtuale di probabilità e statistica

6. Supponi che a e b appartengano a R con a < b. Dimostra che

P(X = a) = F(a) - F(a-)1.

P(a < X b) = F(b) - F(a)2.

P(a < X < b) = F(b-) - F(a)3.

P(a X b) = F(b) - F(a-)4.

P(a X < b) = F(b-) - F(a-)5.

7. Dimostra che se X ha distribuzione continua, allora la funzione di ripartizione F ècontinua.

Relazione con la funzione di densità

Esiste una relazione molto semplice tra funzione di ripartizione e funzione di densità.

8. Supponi che X abbia distribuzione discreta con funzione di densità f e funzione diripartizione F. Prova che per x appartenente a R,

F(x) = t <= x f(t).1.

f(x) = F(x) - F(x-)2.

Pertanto F è una funzione a gradini con "salti" per i valori di X con probabilità positiva;l'ampiezza del salto in x coincide con la funzione di densità in x. Esiste un risultatoanalogo per le distribuzioni continue.

9. Supponi che X abbia distribuzione continua con funzione di densità f e funzione diripartizione F. Dimostra che

F(x) = t <= x f(t)dt.1.

f(x) = F'(x)2.

Per le distribuzioni miste, il risultato è una combinazione di quelli degli ultimi dueesercizi.

10. Supponi che X abbia distribuzione mista con densità parziale discreta g e densitàparziale continua h. Sia F la funzione di ripartizione. Dimostra che

F(x) = t <= x g(t) + t <= x h(t)dt.1.

g(x) = F(x) - F(x-) se F è discontinua in x.2.

h(x) = F'(x) se F è continua in x.3.

Ovviamente, la funzione di ripartizione può essere definita relativamente a ciascuna delledistribuzioni condizionate che abbiamo presentato. Non servono nuovi concetti, e tutti irisultati presentati poc'anzi continuano a valere.

Funzioni di ripartizione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist6.html (2 di 9) [22/11/2001 17.46.56]

Page 102: Laboratorio virtuale di probabilità e statistica

11. Supponi che X abbia distribuzione continua su R con funzione di densità fsimmetrica attorno a un punto a:

f(a + t) = f(a - t) per t appartenente a R.

Prova che la funzione di ripartizione F soddisfa

F(a - t) = 1 - F(a + t) per t appartenente a R.

Esercizi numerici

12. Supponi di lanciare due dadi equilibrati e registrare la sequenza di punteggi (X1,X2). Trova la funzione di ripartizione di

Y = X1 + X2, la somma dei punteggi.1.

V = max (X1, X2), il punteggio massimo.2.

Y dato V = 5.3.

13. Supponi che X sia distribuito uniformemente sull'intervallo (a, b) dove a < b.

Trova la funzione di ripartizione X.1.

Disegna i grafici delle funzioni di densità e di ripartizione.2.

14. Supponi che X abbia funzione di densità f(x) = 12x2(1 - x), 0 < x < 1. Ciòsignifica che X ha distribuzione beta.

Trova la funzione di ripartizione X.1.

Disegna i grafici delle funzioni di densità e di ripartizione.2.

15. Supponi che X abbia funzione di densità f(x) = r exp(-rx), x > 0 dove r > 0 è unparametro. Ciò significa che X ha distribuzione esponenziale con parametro di velocità r.

Trova la funzione di ripartizione X.1.

Disegna i grafici delle funzioni di densità e di ripartizione.2.

16. Supponi che X abbia funzione di densità f(x) = a / xa+1 per x > 1 dove a > 0 è unparametro. Ciò significa che X ha distribuzione di Pareto con parametro di forma a.

Trova la funzione di ripartizione X.1.

Disegna i grafici delle funzioni di densità e di ripartizione.2.

17. Supponi che X abbia funzione di densità f(x) = 1 / [ (1 + x2)] per x appartenentea R. Ciò significa che X ha distribuzione di Cauchy.

Trova la funzione di ripartizione X.1.

Disegna i grafici delle funzioni di densità e di ripartizione.2.

18. Nell'applet quantile, modifica i parametri e osserva la forma della funzione di

Funzioni di ripartizione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist6.html (3 di 9) [22/11/2001 17.46.56]

Page 103: Laboratorio virtuale di probabilità e statistica

densità e della funzione di ripartizione per ciascuna delle seguenti distribuzioni:

Normale1.

Gamma2.

Beta3.

Di Pareto4.

19. Sia F la funzione definita come segue:

F(x) = 0, per x < 1●

F(x) = 1 / 10 per 1 x < 3 / 2●

F(x) = 3 / 10 per 3 / 2 x < 2●

F(x) = 6 / 10 per 2 x < 5 / 2●

F(x) = 9 / 10 per 5 / 2 x < 3●

F(x) = 1 per x 3.●

Prova che F è la funzione di ripartizione di una distribuzione discreta.1.

Trova la corrispondente funzione di densità f.2.

Disegna i grafici di f e F.3.

Trova P(2 X < 3) dove X ha questa distribuzione.4.

20. Sia F(x) = 0 per x < 0, F(x) = x / (x + 1) for 0 x.

Prova che F è la funzione di ripartizione di una distribuzione continua.1.

Trova la corrispondente funzione di densità f.2.

Disegna i grafici di f e F.3.

Trova P(2 X < 3) dove X ha questa distribuzione.4.

21. Sia F la funzione definita da

F(x) = 0 per x < 0●

F(x) = x / 4 per 0 x < 1●

F(x) =1 / 3 + (x - 1)2 / 4 per 1 x < 2●

F(x) = 2 / 3 + (x - 2)3 / 4 per 2 x < 3●

F(x) = 1 per x > 3●

Disegna il grafico di F.1.

Prova che F è la funzione di ripartizione di una distribuzione mista.2.

Trova la densità parziale della parte discreta.3.

Trova la densità parziale della parte continua.4.

Funzioni di ripartizione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist6.html (4 di 9) [22/11/2001 17.46.56]

Page 104: Laboratorio virtuale di probabilità e statistica

Trova P(2 X < 3) dove X ha questa distribuzione.5.

Quantili

Sia X una variabile casuale con funzione di ripartizione F. Supponi che p (0, 1). Unvalore di x tale che

F(x-) = P(X < x) p e F(x) = P(X x) p

è detto quantile di ordine p per la distribuzione. In prima approssimazione, un quantile diordine p è un valore per cui la distribuzione cumulata passa per p.

Notiamo che sussiste una sorta di relazione inversa tra i quantili e i valori delladistribuzione cumulata. Per esplorare ulteriormente questa relazione, supponiamo inprimo luogo che F sia la funzione di ripartizione di una distribuzione continua su unintervallo aperto S. (Poiché la distribuzione è continua, non si perde in generalitàassumendo che S sia aperto). Inoltre, supponiamo che F sia strettamente crescente, e chevada da S su (0, 1). (Ciò significa che ciascuno sottointervallo aperto di S ha probabilitàpositiva, cosicché la distribuzione ha supporto in S). F, allora, ha un'inversa definita F-1

che vada da (0, 1) su S.

22. Sotto le condizioni di cui sopra, prova che F-1(p) è l'unico quantile di ordine p.

Per il calcolo dei quantili e per molte altre applicazione è molto utile estendere la nozionedi inversa a una funzione di ripartizione arbitraria F. Per p appartenente a (0, 1),definiamo la funzione quantile; come

F-1(p) = inf{x R: p F(x)}.

Ovviamente, se S è un intervallo e F è strettamente crescente su S, allora F-1 è l'inversaordinaria di F, come visto poc'anzi. L'esercizio seguente ne spiega il nome: F-1(p) è ilminimo dei quantili di ordine p.

23. per p appartenente a (0, 1), prova che

F-1(p) è un quantile di ordine p.1.

Se x è un altro quantile di ordine p allora F-1(p) < x.2.

Le altre due proprietà fondamentali sono dati nei due esercizi seguenti.

24. Dimostra che, in generale

F-1 è crescente in (0, 1).1.

F-1[F(x)] x per ciascun x in R con 0 < F(x) < 1.2.

F[F-1(p)] p per ciascun p in (0, 1).3.

25. Mostra che per x appartenente a R e p appartenente a (0, 1),

F-1(p) x se e solo se p F(x).

Funzioni di ripartizione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist6.html (5 di 9) [22/11/2001 17.46.56]

Page 105: Laboratorio virtuale di probabilità e statistica

Un quantile di ordine 1/2 si dice mediana della distribuzione. Quando c'è una solamediana, la si può utilizzare come misura del centro della distribuzione. Un quantile diordine 1/4 è detto primo quartile e uno di ordine 3/4 terzo quartile. Una mediana è unsecondo quartile. Assumendo l'unicità, siano q1, q2 e q3 rispettivamentede primo, secondoe terzo quartile di X. Nota che l'intervallo da q1 a q3 include metà della distribuzione, percui lo scarto interquartile si definisce come

IQR = q3 - q1,

ed è a volte usato come misura della dispersione della distribuzione rispetto alla mediana.Siano a e b rispettivamente i valori minimo e massimo di X (assumendo che siano finiti). Icinque parametri

a, q1, q2, q3, b

sono detti spesso five-number summary. Presi insiemi, tali parametri contengono un belpo' di informazioni sulla distribuzione in termini di centralità, dispersione e asimmetria.Graficamente, tali parametri sono spesso rappresentati in un boxplot, formato da una lineache si estende dal valore minimo a al valore massimo b, con una rettangolo da q1 a q3, esegni in a, q2 (la mediana) e b.

26. Nell'istogramma interattivo, seleziona boxplot. Poni l'ampiezza di classe a 0.1 ecostruisci una distribuzione discreta con almeno 30 valori di ciascuno dei tipi indicatisotto. Osserva la forma del boxplot e le posizioni relative dei parametri del five-numbersummary:

Distribuzione uniforme.1.

Distribuzione simmetrica unimodale.2.

Distribuzione unimodale asimmetrica a destra.3.

Distribuzione unimodale asimmetrica a sinistra.4.

Distribuzione simmetrica bimodale5.

Distribuzione a forma di u.6.

27. Supponi che F sia la funzione di ripartizione della distribuzione uniforme su [a, b].

Trova la funzione quantile F-1(p).1.

Riporta il five number summary e disegna il boxplot.2.

28. Supponi che F sia la funzione di ripartizione della distribuzione esponenziale conparametro di velocità r.

Trova la funzione quantile F-1(p).1.

Trova mediana, primo e terzo quartile e scarto interquartile.2.

Con r = 2, disegna il grafico della funzione di densità e indica la media e il primo eil terzo quartile.

3.

29. Supponi che F sia la funzione di ripartizione della distribuzione di Pareto con

Funzioni di ripartizione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist6.html (6 di 9) [22/11/2001 17.46.56]

Page 106: Laboratorio virtuale di probabilità e statistica

parametro di forma a.

Trova la funzione quantile F-1(p).1.

Trova mediana, primo e terzo quartile e scarto interquartile.2.

Con a = 2, disegna il grafico della funzione di densità e indica la media e il primo eil terzo quartile.

3.

30. Supponi che F sia la funzione di ripartizione della distribuzione di Cauchy.

Trova la funzione quantile F-1(p).1.

Trova mediana, primo e terzo quartile e scarto interquartile.2.

Disegna il grafico della funzione di densità e indica la media e il primo e il terzoquartile.

3.

31. Trova la funzione quantile F-1 della funzione di ripartizione F dell'esercizio 19.

32. Trova la funzione quantile F-1 della funzione di ripartizione F dell'esercizio 20.

33. Trova la funzione quantile F-1 della funzione di ripartizione F dell'esercizio 21.

34. Nell'applet quantile, trova la mediana e il primo e terzo quartile delle seguentidistribuzioni. In ciascun caso, osserva sia la funzione di densità che la funzione diripartizione.

Distribuzione normale standardizzata (mi = 0, sigma = 1)1.

Distribuzione gamma con parametro di forma 2 e parametro di scala 1.2.

Distribuzione beta con a = 1.5 e b = 2.3.

Distribuzione di Pareto con parametro di forma 2.4.

35. Supponi che X abbia distribuzione continua su R con densità f simmetrica rispettoa un punto a:

f(a - t) = f(a + t) per t appartenente a R.

Dimostra che se a + t è un quantile di ordine p allora a - t è un quantile di ordine 1 - p.

La funzione di ripartizione della coda destra

Supponiamo anche qui che X sia una variabile casuale con funzione di ripartizione F. Unafunzione che chiaramente veicola la stessa informazione rispetto a F è la funzione diripartizione della coda destra:

G(x) = 1 - F(x) = P(X > x) per x R.

36. Riporta le proprietà matematiche della funzione di ripartizione della coda destra,analoghe alle proprietà degli esercizi 1-5.

Supponi che T sia una variabile casuale con distribuzione continua su (0, ). Seinterpretiamo T come la durata di un congegno, la funzione di ripartizione della coda

Funzioni di ripartizione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist6.html (7 di 9) [22/11/2001 17.46.56]

Page 107: Laboratorio virtuale di probabilità e statistica

destra G è detta funzione di affidabilità: G(t) è la probabilità che il congegno duri almenot unità di tempo. Inoltre, la funzione h definita qui sotto è detta funzione del tasso diguasto:

h(t) = f(t) / G(t).

37. Dimostra che h(t) dt ~ P(t < T < t + dt | T > t) se dt è piccolo.

Quindi, h(t) dt rappresenta la probabilità che il congegno si rompa nelle prossime dt unitàdi tempo, sapendo che ha funzionato fino al tempo t. Inoltre, la funzione tasso di guastoindividua completamente la distribuzione di T.

38. Mostra che

G(t) = exp[- (0, t) h(s)ds] per t > 0.

39. Prova che la funzione tasso di guasto h soddisfa le seguenti proprietà:

h(t) 0 per t > 0.1.

(t: t > 0) h(t)dt = .2.

40. Di converso, supponi che h soddisfi le condizioni dell'esercizio 39. Prova che laformula dell'esercizio 38 definisce una funzione di affidabilità.

41. Considera la distribuzione con funzione tasso di guasto h(t) = tk, t > 0.

Trova la corrispondente funzione di affidabilità.1.

Trova la corrispondente funzione di densità.2.

La distribuzione dell'esercizio precedente è la distribuzione di Weibull con parametro diforma k, che prende il nome da Walodi Weibull.

Funzioni di ripartizione multivariate

Supponiamo che X e Y siano variabili casuali a valori reali relative a un esperimento,cosicché (X, Y) è un vettore casuale a valori in un sottinsieme di R2. La funzione diripartizione di (X, Y) è la funzione F definita come

F(x, y) = P(X x, Y y).

Come nel caso a variabile singola, la funzione di ripartizione di (X, Y) individuacompletamente la distribuzione di (X, Y).

42. Sia F la funzione di ripartizione di (X, Y), e siano G H, rispettivamente, le funzionidi ripartizione di X e Y. Dimostra che

G(x) = F(x, )1.

Funzioni di ripartizione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist6.html (8 di 9) [22/11/2001 17.46.56]

Page 108: Laboratorio virtuale di probabilità e statistica

H(y) = F( , y)2.

43. Nel contesto dell'esercizio precedente, prova che X e Y sono indipendenti se e solose

F(x, y) = G(x)H(y) per ogni x, y.

44. Supponi che (X, Y) abbia funzione di densità f(x, y) = x + y per 0 < x < 1, 0 < y <1.

Trova la funzione di ripartizione di (X, Y).1.

Trova la funzione di ripartizione di X.2.

Trova la funzione di ripartizione di Y.3.

Trova la funzione di ripartizione condizionata di X dato Y = y (0 < y < 1).4.

Trova la funzione di ripartizione condizionata di Y dato X = x (0 < x < 1)5.

X e Y sono indipendenti?6.

Tutti i risultati presentati qui sopra si possono facilmente estendere al cason-dimensionale.

La funzione di ripartizione empirica

Supponi che {x1, x2, ..., xn} siano dei dati reali osservati su una variabile casuale a valorireali. La funzione di ripartizione empirica è definita come

Fn(x) = #{i {1, 2, ..., n}: xi x} / n per x R.

Fn(x) indica quindi la proporzione di valori dei dati minori o uguali di x.

45. Sui dati M&M, calcola la funzione di ripartizione empirica del numero totale dipastiglie.

46. Nei dati sulla cicala, sia L la lunghezza corporea e G il sesso. Calcola le funzioni diripartizione empiriche delle seguenti variabili:

L1.

L dato G = maschio2.

L dato G = femmina3.

Credi che L e G siano indipendenti?4.

Per analizzare dal punto di vista statistico alcuni concetti presentati in questo paragrafo,vedi il capitolo sui campioni casuali, e in particolare i paragrafi su distribuzioni empirichee statistiche d'ordine.

Laboratorio virtuale > Distribuzioni > 1 2 3 4 5 [6] 7 8 9Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Funzioni di ripartizione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist6.html (9 di 9) [22/11/2001 17.46.56]

Page 109: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni > 1 2 3 4 5 6 [7] 8 9

7. Trasformazioni di variabili

Il problema generale

Al solito, iniziamo introducendo un esperimento casuale su un certo spazio campionario econ misura di probabilità P. Supponiamo di avere una variabile casuale X relativa

all'esperimento, a valori in S e una trasformazione r: S T. Y = r(X) è pertanto unanuova variabile casuale a valori in T. Se la distribuzione di X è nota, come facciamo atrovare la distribuzione di Y? In senso superficiale, la soluzione è semplice.

1. Prova che

P(Y B) = P[X r -1(B)] for B T.

Però spesso la distribuzione di X è nota o tramite la sua funzione di ripartizione F otramite la sua funzione di densità f, e similmente si sarà interessati a trovare la funzione diripartizione o di densità di Y. Questo problema è generalmente più difficile poiché, comevedremo, anche trasformazioni semplici di variabili con distribuzioni semplici possonoprodurre variabili con distribuzioni complesse. Risolveremo questo problema in alcunicasi particolari.

Trasformazioni discrete

2. Supponi che X abbia distribuzione discreta con densità f (per cui S è numerabile).Dimostra che Y ha distribuzione discreta con funzione di densità g data da

g(y) = x in r-1(y) f(x) per y appartenente a T.

3. Supponi che X abbia distribuzione continua su un sottinsieme S di Rn, con densità fe che T sia numerabile. Mostra che Y ha distribuzione continua con funzione di densità gdata da

g(y) = r-1(y) f(x)dx per y appartenente a T.

4. Supponi di lanciare due dadi equilibrati e di registrare la sequenza dei punteggi (X1,X2). Trova la funzione di densità delle seguenti variabili casuali:

Y = X1 + X2.1.

Z = X1 - X2.2.

U = min{X1, X2}3.

Trasformazioni di variabili

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist7.html (1 di 9) [22/11/2001 17.47.04]

Page 110: Laboratorio virtuale di probabilità e statistica

V = max{X1, X2}4.

(Y, Z)5.

(U, V)6.

5. Supponi che T abbia funzione di densità f(t) = r exp(-rt), t > 0 dove r > 0 è unparametro. (Si tratta della distribuzione esponenziale con parametro di velocità r). Trovala funzione di densità delle seguenti variabili casuali:

floor(T) (il minor intero minore o uguale a T).1.

ceil(T) (il minor intero maggiore o uguale a T).2.

6. Supponi che (X, Y) abbia funzione di densità f(x, y) = x + y per 0 < x < 1, 0 < y <1. Sia I la variabile indicatore dell'evento {X > 1/2} e J la variabile indicatore dell'evento{Y > 1/2}. Trova la densità di (I, J).

Distribuzioni continue

Supponiamo che Y = r(X), dove X e Y hanno distribuzione continua e X ha densità nota f.In molti casi la densità di Y può essere ottenuta trovando la funzione di ripartizione di Y(utilizzando le regole della probabilità) e facendone la derivata.

7. Supponi che X sia distribuita uniformemente sull'intervallo (-2, 2). Sia Y = X2.

Trova la funzione di ripartizione di Y.1.

Trova la funzione di densità di Y e tracciane il grafico.2.

8. Supponi che X sia distribuita uniformemente sull'intervallo (-1, 3). Sia Y = X2.

Trova la funzione di ripartizione di Y.1.

Trova la funzione di densità di Y e tracciane il grafico.2.

L'ultimo esercizio mostra che anche una trasformazione semplice di una distribuzionesemplice può produrre una distribuzione complessa.

9. Supponi che X abbia funzione di densità f(x) = a / xa + 1 per x > 1, dove a > 0 è unparametro (si tratta della distribuzione di Pareto con parametro di forma a). Sia Y = ln(X).

Trova la funzione di ripartizione di Y.1.

Trova la funzione di densità di Y e tracciane il grafico.2.

Osserva che la variabile casuale Y dell'esercizio precedente ha distribuzione esponenzialecon parametro di velocità a.

10. Supponi che (X, Y) abbia densità f(x, y) = exp(-x -y) per x > 0, y > 0. X e Y sonopertanto indipendenti, e ciascuno ha distribuzione esponenziale con parametro 1. Sia Z =Y / X.

Trova la funzione di ripartizione di Z.1.

Trova la funzione di densità di Z.2.

Trasformazioni di variabili

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist7.html (2 di 9) [22/11/2001 17.47.04]

Page 111: Laboratorio virtuale di probabilità e statistica

11. Valore assoluto di una variabile casuale. Supponi che X abbia distribuzionecontinua su R con funzione di ripartizione F e funzione di densità f. Dimostra che

|X| ha funzione di ripartizione G(y) = F(y) - F(-y) per y > 0.1.

|X| ha funzione di densità g(y) = f(y) + f(-y) per y > 0.2.

12. Continua. Supponi che la densità f di X sia simmetrica attorno a 0. Sia J il segnodi X, per cui J = 1 se X > 0, J = 0 se X = 0 e J = -1 se X < 0. Prova che

|X| ha funzione di ripartizione G(y) = 2F(y) - 1 per y > 0.1.

|X| ha funzione di densità g(y) = 2f(y) per y > 0.2.

J è distribuita uniformemente su {-1, 1}3.

|X| e J sono indipendenti.4.

La distribuzione uniforme su (0, 1)

Un fatto degno di nota è che la distribuzione uniforme su (0, 1) può essere trasformata inciascun'altra distribuzione su R. Ciò è particolarmente importante per le simulazioni,poiché molti linguaggi di programmazione possiedono algoritmi per la generazione dinumeri casuali, cioè replicazioni di variabili indipendenti, ciascun distribuita su (0, 1). Diconverso, ogni distribuzione continua supportata su un intervallo di R può esseretrasformata nella distribuzione uniforme su (0, 1).

Supponiamo in primo luogo che F sia una funzione di ripartizione, e indichiamo con F-1

la funzione quantile.

13. Supponi che U sia distribuita uniformemente su (0, 1). Prova che X = F-1(U) hafunzione di ripartizione F.

Assumendo di poter calcolare F-1, l'esercizio precedente mostra come si possa simulareuna distribuzione con funzione di ripartizione F. In altri termini, possimao simulare unavariabile con funzione di ripartizione F semplicemente calcolando un quantile casuale.

14. Supponi che X abbia distribuzione continua su un intervallo S e che la funzione diripartizione F sia strettamente crescente su S. Dimostra che U = F(X) ha distribuzioneuniforme su (0, 1).

15. Mostra come simulare, partendo da un numero casuale, la distribuzione uniformesull'intervallo (a, b).

16. Mostra come simulare, partendo da un numero casuale, la distribuzioneesponenziale con parametro di velocità r > 0.

17. Mostra come simulare, partendo da un numero casuale, la distribuzione di Paretocon parametro di forma a > 0.

La formula del cambiamento di variabile

Trasformazioni di variabili

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist7.html (3 di 9) [22/11/2001 17.47.04]

Page 112: Laboratorio virtuale di probabilità e statistica

Quando la trasformazione r è biunivoca e "liscia" (nel senso che non ha "salti"), esite unaformula per trovare la densità di Y direttamente in termini della densità di X. Talerisultato è detto formula del cambiamento di variabile.

Analizziamo in primo luogo il caso monodimensionale, in cui concetti e formule sono piùsemplici. Supponiamo perciò che una variabile casuale X abbia distribuzione continua suun intervallo S di R con funzione di ripartizione F e funzione di densità f. Supponi che Y= r(X) dove r è funzione derivabile da S su un intervallo T. Al solito, indicheremo con Gla funzione di ripartizione di Y e con g la funzione di densità di Y.

18. Supponi che r sia strettamente crescente su S. Prova che, per y appartenente a T,

G(y) = F[r-1(y)]1.

g(y) = f[r-1(y)] dr-1(y) / dy2.

19. Supponi che r sia strettamente decrescente su S. Prova che, per y appartenente a T,

G(y) = 1 - F[r-1(y)]1.

g(y) = -f[r-1(y)] dr-1(y) / dy2.

Le formule degli esercizi 18 (a) e 19 (b) possono essere combinate: se r è strettamentemonotona su S allora la densità g di Y è data da

g(y) = f[r-1(y)] |dr-1(y) / dy| per y appartenente a T.

La generalizzazione di questo risultato è in ultima analisi un teorema di analisimultivariata. Supponiamo che X sia una variabile casuale a valori in un sottinsieme S diRn e che X abbia distribuzione continua con funzione di densità di probabilità f.Supponiamo inoltre che Y = r(X) dove r è una funzione biunivoca e derivabile da S su unsottinsieme T di Rn. Il Jacobiano (detto così in onore di Karl Gustav Jacobi) dellafunzione inversa

x = r -1(y)

è il determinante della matrice di derivate prime della funzione inversa, ovvero la matriceil cui elemento (i, j) è la derivata di xi rispetto a yj. Indicheremo il Jacobiano con J(y). Laformula del cambiamento di variabile nel caso multivariato afferma che la densità g di Y èdata da

g(y) = f[r-1(y)] |J(y)| per y appartenente a T.

20. Supponi che X sia distribuito uniformemente sull'intervallo (2, 4). Trova lafunzione di densità di Y = X2.

21. Supponi che X abbia funzione di densità f(x) = x2 / 3 per –1 < x < 2. Trova lafunzione di densità di Y = X1/3.

22. Supponi che X abbia distribuzione di Pareto con parametro di forma a > 0. Trova

Trasformazioni di variabili

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist7.html (4 di 9) [22/11/2001 17.47.04]

Page 113: Laboratorio virtuale di probabilità e statistica

la funzione di densità di Y = 1/X. La distribuzione di Y è una beta con parametri a e b = 1.

23. Supponi che X e Y siano indipendenti e uniformemente distribuite su (0, 1). Sia U= X + Y e V = X - Y.

Disegna il campo di variazione di (X, Y) e di (U, V).1.

Trova la funzione di densità di (U, V).2.

Trova la funzione di densità di U.3.

Trova la funzione di densità di V.4.

Alcuni dei risultati dell'esercizio precedente saranno generalizzati più avanti.

24. Supponi che (X, Y) abbia funzione di densità di probabilità f(x, y) = 2(x + y) per 0< x < y < 1. Sia U = XY e V = Y/X.

Disegna il campo di variazione di (X, Y) e di (U, V).1.

Trova la funzione di densità di (U, V).2.

Trova la funzione di densità di U.3.

Trova la funzione di densità di V.4.

Trasformazioni lineari

Le trasformazioni lineari sono tra le più comuni e le più importanti. In più, il teorema delcambiamento di variabile ha forma particolarmente semplice quando la trasformazionelineare è espressa in forma matriciale. Supponimo, come sopra, che X sia una variabilecasuale a valori in un sottinsieme S di Rn e che X abbia distribuzione continua su S confunzione di densità di probabilità f. Sia

Y = AX

dove A è una matrice invertibile n × n. Ricorda che la trasformazione y = Ax è biunivoca,e la trasformazione inversa è

x = A-1y.

Notiamo che Y assuma valori in un sottinsieme T = {Ax: x S} of Rn.

25. Dimostra che il Jacobiano è J(y) = det(A-1) per y in T.

26. Applica il teorema del cambiamento di variabile per mostrare che Y ha funzione didensità

g(y) = f(A-1y) |det(A-1)| for y in T.

La distribuzione uniforme permane sotto trasformazioni lineari:

27. Supponi che X sia distribuita uniformemente su S. Mostra che Y è distribuitauniformemente su T.

Trasformazioni di variabili

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist7.html (5 di 9) [22/11/2001 17.47.04]

Page 114: Laboratorio virtuale di probabilità e statistica

28. Supponi che (X, Y, Z) sia distribuito uniformemente sul cubo (0, 1)3. Trova lafunzione di densità di

(U, V, W) dove U = X + Y, V = Y + Z, W = X + Z.

29. Supponi che (X, Y) abbia funzione di densità f(x, y) = exp[-(x + y)] per x > 0, y >0 (quindi X e Y sono indipendenti e con distribuzione esponenziale con parametro 1).Trova la funzione di densità di

(U, V) dove U = X + 2Y, V = 3X - Y.

Convoluzione

La più importante di tutte le trasformazioni è la semplice addizione.

30. Supponi che X e Y siano variabili casuali discrete e indipendenti, a valori neisottinsiemi S e T di R, con funzioni di densità rispettivamente f e g. Prova che la densitàdi Z = X + Y è

f * g(z) = x f(x)g(z - x)

dove la sommatoria è per gli {x R: x S e z - x T}. La densità f * g è dettaconvoluzione discreta di f e g.

31. Supponi che X e Y siano variabili casuali continue e indipendenti, a valori neisottinsiemi S e T di R, con funzioni di densità rispettivamente f e g. Prova che la densitàdi Z = X + Y è

f * g(z) = R f(x)g(z - x)dx.

La densità f * g è detta convoluzione continua di f e g.

32. Prova che la convoluzione (discreta o continua) soddisfa le seguenti proprietà

f * g = g * f (proprietà commutativa)1.

f * (g * h) = (f * g) * h (proprietà associativa)2.

Notiamo che se X1, X2, ..., Xn sono indipendenti e identicamente distribuite con funzionedi densità comune f, allora

Y = X1 + X2 + ··· + Xn.

ha funzione di densità f*n, la convoluzione n-fold di f con se stessa.

33. Supponi di lanciare due dadi equilibrati. Trova la densità della somma deipunteggi.

Trasformazioni di variabili

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist7.html (6 di 9) [22/11/2001 17.47.04]

Page 115: Laboratorio virtuale di probabilità e statistica

34. Nell'esperimento dei dadi, seleziona due dadi equilibrati. Simula 1000 replicazioni,aggiornando ogni 10, e osserva la convergenza della funzione di densità empirica a quellateorica.

35. In un dado piatto uno-sei, le facce 1 e 6 si escono con probabilità 1/4 ciascuna e lealtre facce con probabilità 1/8 ciascuna. Supponi di lanciare due volte un dado di questotipo. Trova la densità della somma dei punteggi.

36. Nell'esperimento dei dadi, seleziona due dadi piatti uno-sei. Simula 1000replicazioni, aggiornando ogni 10, e osserva la convergenza della funzione di densitàempirica a quella teorica.

37. Supponi di lanciare un dado equilibrato e un dado piatto uno-sei. Trova lafunzione di densità della somma dei punteggi.

38. Supponi che X abbia distribuzione esponenziale con parametro di velocità a > 0, Yabbia distribuzione esponenziale con parametro di velocità b > 0 e che X e Y sianoindipendenti. Trova la densità di Z = X + Y.

39. Sia f la funzione di densità della distribuzione uniforme su (0, 1). Calcola f*2 e f*3.Traccia i grafici delle densità.

Molte importanti famiglie parametriche di distribuzioni sono chiuse rispetto allaconvoluzione. Ciò significa che, quando due variabili casuali indipendenti hannodistribuzioni che appartengono a una certa famiglia, così è per la loro somma. Si tratta diuna proprietà molto importante ed è una delle ragioni della rilevanza di tali famiglie.

40. Ricorda che f(n) = exp(-t) tn / n! per n = 0, 1, 2, ... è la funzione di densità diprobabilità della distribuzione di Poisson con parametro t > 0. Supponi che X e Y sianoindipendenti, e che X abbia distribuzione di Poisson con parametro a > 0 mentre Y abbiadistribuzione di Poisson con parametro b > 0. Prova che X + Y ha distribuzione di Poissoncon parametro a + b. Suggerimento: Usa il teorema binomiale.

41. Ricorda che f(k) = C(n, k) pk (1 - p)n - k for k = 0, 1, ..., n è la funzione di densità diprobabilità della distribuzione binomiale con parametri n appartenente a {1, 2, ...} e pappartenente a (0, 1). Supponi che X e Y siano indipendenti e che X abbia distribuzionebinomiale con parametri n e p mentre Y ha distribuzione binomiale con parametri m e p.Prova che X + Y ha distribuzione binomiale con parametri n + m e p. Suggerimento: Usail teorema binomiale.

Minimo e massimo

Supponi che X1, X2, ..., Xn siano variabili casuali indipendenti a valori reali e che Xiabbia funzione di ripartizione Fi per ciascun i. Le trasformazioni minimo e massimo sonomolto importanti per un gran numero di applicazioni. Specificamente, siano

U = min{X1, X2, ..., Xn}●

Trasformazioni di variabili

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist7.html (7 di 9) [22/11/2001 17.47.04]

Page 116: Laboratorio virtuale di probabilità e statistica

V = max{X1, X2, ..., Xn}●

e siano rispettivamente G e H le funzioni di ripartizione di U e V. .

42. Prova che

V x se e solo se X1 x, X2 x, ..., Xn x.1.

H(x) = F1(x) F2(x) ··· Fn(x) per x appartenente a R.2.

43. Prova che

U > x se e solo se X1 > x, X2 > x, ..., Xn > x.1.

G(x) = 1 - [1 - F1(x)][1 - F2(x)] ··· [1 - Fn(x)] per x appartenente a R.2.

Se Xi ha distribuzione continua con funzione di densità fi per ogni i, allora U e V hannoanch'esse distribuzione continua, e le densità possono essere ottenute derivando lefunzioni di ripartizione degli esercizi 37 e 38.

44. Supponi che X1, X2, ..., Xn siano variabili casuali indipendenti distribuiteuniformemente su (0, 1). Trova le funzioni di ripartizione e di densità di

U = min{X1, X2, ..., Xn}1.

V = max{X1, X2, ..., Xn}2.

Nota che U e V dell'esercizio precedente hanno distribuzione beta.

45. Nell'esperimento statistica d'ordine, seleziona la distribuzione uniforme.

Poni k = 1 (per avere il minimo U). Modifica n con la barra e osserva la forma dellafunzione di densità. Con n = 5, simula 1000 replicazioni, aggiornando ogni 10.Osserva la convergenza della funzione di densità empirica a quella teorica.

1.

Modifica n con la barra a scorrimento, ponendo ogni volta k = n (per avere ilmassimo V) e osserva la forma della funzione di densità. Con n = 5, simula 1000replicazioni, aggiornando ogni 10. Osserva la convergenza della funzione di densitàempirica a quella teorica.

2.

46. Supponi che X1, X2, ..., Xn siano variabili casuali indipendenti e che Xi abbiadistribuzione esponenziale con parametro di velocità ri > 0 per ogni i. Trova le funzioni didensità e di ripartizione di

Trova la funzione di ripartizione di U = min{X1, X2, ..., Xn}1.

Trova la funzione di ripartizione di V = max{X1, X2, ..., Xn}2.

Trova la funzione di densità di U e V nel caso in cui ri = r per ciascun i. 3.

Notiamo che il minimo U in (a) ha distribuzione esponenziale con parametro

r1 + r2 + ··· + rn.

Trasformazioni di variabili

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist7.html (8 di 9) [22/11/2001 17.47.04]

Page 117: Laboratorio virtuale di probabilità e statistica

47. Nell'esperimento statistica d'ordine, seleziona la distribuzione esponenziale.

Poni k = 1 (per avere il minimo U). Modifica n con la barra e osserva la forma dellafunzione di densità. Con n = 5, simula 1000 replicazioni, aggiornando ogni 10.Osserva la convergenza della funzione di densità empirica a quella teorica.

1.

Modifica n con la barra a scorrimento, ponendo ogni volta k = n (per avere ilmassimo V) e osserva la forma della funzione di densità. Con n = 5, simula 1000replicazioni, aggiornando ogni 10. Osserva la convergenza della funzione di densitàempirica a quella teorica.

2.

48. Supponi di lanciare n dadi equilibrati. Trova la funzione di densità del

punteggio minimo1.

punteggio massimo2.

49. Nell'esperimento dei dadi, seleziona dadi equilibrati e ciascuna delle seguentivariabili casuali. Modifica n con la barra e osserva la forma della funzione di densità. Conn = 4, simula 1000 replicazioni, aggiornando ogni 10. Osserva la convergenza dellafunzione di densità empirica a quella teorica.

punteggio minimo1.

punteggio massimo2.

50. Supponi di lanciare n dadi piatti uno-sei (le facce 1 e 6 hanno probabilità 1/4; lefacce 2, 3, 4, 5 hanno probabilità 1/8). Trova la funzione di densità del

punteggio minimo1.

punteggio massimo2.

51. Nell'esperimento dei dadi, seleziona dadi piatti uno-sei e ciascuna delle seguentivariabili casuali. Modifica n con la barra e osserva la forma della funzione di densità. Conn = 4, simula 1000 replicazioni, aggiornando ogni 10. Osserva la convergenza dellafunzione di densità empirica a quella teorica.

punteggio minimo1.

punteggio massimo2.

Per un argomento correlato, si rimanda alla trattazione delle statistiche d'ordine nelcapitolo sui campioni casuali.

Laboratorio virtuale > Distribuzioni > 1 2 3 4 5 6 [7] 8 9Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Trasformazioni di variabili

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist7.html (9 di 9) [22/11/2001 17.47.04]

Page 118: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni > 1 2 3 4 5 6 7 [8] 9

8. Convergenza in distribuzione

Definizione

Supponi che Xn, n = 1, 2, ... e X siano variabili casuali a valori reali con funzioni diripartizione, rispettivamente, Fn, n = 1, 2, ... e F. Si dice che la distribuzione di Xn

converge alla distribuzione di X per n se

Fn(x) F(x) as n per ogni x in cui F è continua.

Il primo fatto, abbastanza ovvio, che vale la pena notare è che la convergenza indistribuzione coinvolge esclusivamente le distribuzioni di variabili casuali. Pertanto, essepossono anche essere definite su spazi campionari diversi (ovvero non riguardare lo stessoesperimento). Questo contrasta con gli altri concetti di convergenza che abbiamo studiato:

Convergenza quasi certa●

Convergence in probabilità●

Convergence in media k-esima●

Mostreremo difatti che la convergenza in distribuzione è la più debole di tutte questemodalità di convergenza, pur essendo comunque molto importante. Il teorema limitecentrale, uno dei risultati più importanti della probabilità, ha a che vedere con laconvergenza in distribuzione.

Il primo esempio che presentiamo mostra perché la definizione è data in termini difunzioni di ripartizione, piuttosto che di funzioni di densità, e perché la convergenza èrichiesta unicamente nei punti di continuità della funzione di ripartizione limite.

1. Sia Xn = 1 / n, per n = 1, 2, ... e sia X = 0. Siano fn e f le corrispondenti funzioni didensità e Fn e F le corrispondenti funzioni di ripartizione. Mostra che

fn(x) 0 per n per ogni x.1.

Fn(x) 0 per n se x 0 e Fn(x) 1 per n se x > 02.

Fn(x) F(x) as n per ogni x 0.3.

Il prossimo esempio mostra che anche quando le variabili sono definite sullo stesso spaziodi probabilità, una successione può convergere in distribuzione, ma non in ogni altramaniera.

2. Sia I una variabile indicatore con P(I = 1) = 1/2 e sia In = I per n = 1, 2, .... Prova che

1 - I è distribuita come I.1.

Convergenza in distribuzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist8.html (1 di 6) [22/11/2001 17.47.16]

Page 119: Laboratorio virtuale di probabilità e statistica

La distribuzione di In converge alla distribuzione di 1 - I per n .2.

|In - (1 - I)| = 1 per ogni n.3.

P(In non converge a 1 - I per n ) = 1.4.

P(|In - (1 - I)| > 1 / 2) = 1 per ogni n, per cui In non converge a 1 - I in probabilità.5.

E(|In - (1 - I)|) = 1, per ogni n, per cui In non converge a 1 - I in media.6.

3. Supponi che fn, n = 1, 2, ... e f siano funzioni di densità di probabilità discrete

definite su un insieme numerabile S e che fn(x) f(x) per n per ogni xappartenente a S. Prova che la distribuzione corrispondente a fn converge alla

distribuzione corrispondente a f per n .

4. Supponi che X sia una variabile casuale a valori reali. Prova che la distribuzione

condizionata di X dato X t converge alla distribuzione di X per t .

Esistono molti importanti casi in cui una distribuzione notevole converge a un'altradistribuzione quando un parametro si avvicina a un certo valore limite. In realtà, talirisultati di convergenza sono parte della ragione per cui tali distribuzioni sono notevoli.

5. Supponi che P(Y = k) = p(1 - p)k - 1 per k = 1, 2, ..., dove p appartenente a (0, 1] è unparametro. Y ha pertanto distribuzione geometrica con parametro p.

Trova la funzione di densità condizionata di Y dato Y n.1.

Prova che la distribuzione in (a) converge alla distribuzione uniforme su {1, 2, ...,

n} as p 0+.

2.

Ricorda che la distribuzione binomiale con parametri n appartenente a {1, 2, ...} e pappartenente a (0, 1) è la distribuzione del numero dei successi in n prove Bernoulliane,dove p è la probabilità del successo in una prova. Tale distribuzione ha funzione didensità di probabilità discreta

f(k) = C(n, k) pk (1 - p)n - k per k = 0, 1, ..., n.

Ricorda inoltre che la distribuzione di Poisson con parametro t > 0 ha funzione di densitàdi probabilità discreta:

g(k) = exp(-t) tk / k! per k = 0, 1, 2, ...

6. Prova che per dato t > 0, la distribuzione binomiale con parametri n e pn = t / n

converge alla distribuzione di Poisson con parametro t per n .

Per ulteriori informazioni su questo importante risultato, puoi vedere il paragrafo sulleanalogie tra prove Bernoulliane e processi di Poisson.

Ricorda che la distribuzione ipergeometrica con parametri N, R e n è il numero di oggettidi un dato tipo in un campione di dimensione n estratto senza reinserimento da una

Convergenza in distribuzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist8.html (2 di 6) [22/11/2001 17.47.16]

Page 120: Laboratorio virtuale di probabilità e statistica

popolazione di N oggetti, di cui R del tipo dato. Ha funzione di densità di probabilitàdiscreta

f(k) = C(n, k) (R)k (N - R)n - k / (N)n per k = 0, 1, ..., n.

7. Supponi che R dipenda da N e che R / N p per N . Prova che, per dato n,la distribuzione ipergeometrica con parametri N, R, n converge alla distribuzione

binomiale con parametri n e p as N .

Relazione con la convergenza in probabilità

Supponi che Xn, n = 1, 2, ... e X siano variabili casuali (definite sullo stesso spaziocampionario) con funzioni di ripartizione rispettivamente Fn, n = 1, 2, ... e F. Gli esercizi

seguenti mostreranno che, se Xn X per n in probabilità, allora la distribuzione

di Xn converge alla distribuzione di X per n .

8. Mostra che per r > 0,

P(Xn x) = P(Xn x, X x + r) + P(Xn x, X > x + r).1.

Fn(x) F(x + r) + P(|Xn - X| > r).2.

9. Mostra che per r > 0,

P(X x - r) = P(X x - r, Xn x) + P(X x - r, Xn > x).1.

F(x - r) Fn(x) + P(|Xn - X| > r).2.

10. Sulla base dei risultati degli esercizi 8 e 9, mostra che per ogni r > 0,

F(x - r) + P(|Xn - X| > r) Fn(x) F(x + r) + P(|Xn - X| > r).

11. Supponi ora che Xn X per n in probabilità. Poni n nell'esercizio10 per dimostrare che per r > 0,

F(x - r) lim infn Fn(x) lim supn Fn(x) F(x + r)

12. Poni r 0 per mostrare che, se F è continua in x allora

limn Fn(x) F(x) per n .

Per concludere, le implicazioni vanno da sinistra a destra nella seguente tabella (dove j <k); nessuna altra implicazione vale in generale.

convergenza quasi certaconvergenza in

probabilitàconvergenza indistribuzioneconvergenza in

media k-esimaconvergenza inmedia j-esima

Convergenza in distribuzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist8.html (3 di 6) [22/11/2001 17.47.16]

Page 121: Laboratorio virtuale di probabilità e statistica

In ogni caso, l'esercizio seguente riporta un'importante eccezione quando la variabilelimite è costante:

13. Supponi che X1, X2, ... siano variabili casuali (definite sullo stesso spaziocampionario) e che la distribuzione di Xn converga alla distribuzione della costante c per

n . Dimostra che Xn converge in probabilità a c.

P(Xn x) 0 per n se x < c and P(Xn x) 1 per n se x > c.1.

P(|Xn - c| r) 1 per ogni r > 0.2.

La rappresentazione di Skorohod

Supponiamo che Fn, n = 1, 2, ... e F siano funzioni di ripartizione e che Fn F per n nel senso della convergenza in distribuzione. Vedremo ora che esistono variabili

casuali Xn, n = 1, 2, ... e X (definite sullo stesso spazio di probabilità) tali che

Xn ha funzione di ripartizione Fn per ogni n,1.

X ha distribuzione F,2.

Xn X per n con probabilità 1.3.

Questo interessante risultato è noto come teorema di rappresentazione di Skorohod. Inprimo luogo, sia U distribuita uniformemete sull'intervallo (0, 1). Definiamo le variabilicasuali Xn, n = 1, 2, ... e X come

Xn = Fn-1(U), X = F-1(U),

dove Fn-1 e F-1 sono le funzioni quantile rispettivamente di Fn e F.

14. Ricorda dalle transformazioni della variabile uniforme che Xn ha funzione diripartizione Fn e X ha funzione di ripartizione F.

Il nucleo della dimostrazione, presentata nella prossima serie di esercizi, è di provare chese u appartiene a (0, 1) e F-1 è continua in u allora

Fn-1(u) F-1(u) per n .

Sia quindi r > 0 e sia u appartenente a (0, 1). Scegli un punto x di continuità di F tale che

F-1(u) - r < x < F-1(u).

15. Mostra che

F(x) < u.1.

Fn(x) < u per n sufficientemente grande.2.

16. Concludi dall'esercizio 15 che, per n sufficientemente grande

Convergenza in distribuzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist8.html (4 di 6) [22/11/2001 17.47.16]

Page 122: Laboratorio virtuale di probabilità e statistica

F-1(u) - r < x < Fn-1(u).

17. Poni n e r 0+ nell'esercizio 16 per concludere che per ogni uappartenente a (0, 1).

F-1(u) lim infn Fn-1(u).

Ora, scegliamo un v che soddisfi u < v < 1 e sia r > 0. Scegli un punto di continuità di Ftale che

F-1(v) < x < F-1(v) + r.

18. Mostra che

u < v < F(x).1.

u < Fn(x) per n sufficientemente grande.2.

19. Dall'esercizio 18, concludi che per n sufficientemente grande,

Fn-1(u) x < F-1(v) + r.

20. Poni n e r 0+ nell'esercizio 19 per concludere che per ogni u, v in (0, 1)con u < v,

lim supn Fn-1(u) F-1(v).

21. Poni v u- nell'esercizio 20 per mostrare che u è un punto di continuità di F,

lim supn Fn-1(u) F-1(u).

22. Dagli esercizi 16 e 20 concludi che se u è un punto di continuità di F, allora

Fn-1(u) F-1(u) per n .

Per completare la dimostrazione, abbiamo bisogno di un risultato dell'analisi: poiché F-1 ècrescente, l'insieme D di punti di discontinuità di F-1 in (0, 1) è numerabile.

23. Nota che

P(U D) = 0.1.

P(Xn X per n ) = 1.2.

Il seguente risultato illustra il valore della rappresentazione di Skorohod.

24. Supponi che Xn, n = 1, 2, ... e X siano variabili casuali tali che le distribuzioni di

Xn convergano alla distribuzione di X per n . Se g: R R è continuo, allora la

distribuzione di g(Xn) converge alla distribuzione di g(X) per n .

Convergenza in distribuzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist8.html (5 di 6) [22/11/2001 17.47.16]

Page 123: Laboratorio virtuale di probabilità e statistica

Siano Yn, n = 1, 2, ... e Y variabili casuali, definite sul medesimo spaziocampionario, tali che Yn abbia la stessa distribuzione di Xn per ogni n, Y abbia la

stessa distribuzione di X e Yn Y per n con probabilità 1.

1.

Spiega perché g(Yn) g(Y) as n con probabilità 1.2.

Spiega perché la distribuzione di g(Yn) converge alla distribuzione di g(Y) per n

.

3.

Spiega perché g(Yn) ha la stessa distribuzione di g(Xn) e perché g(Y) ha la stessadistribuzione di g(X).

4.

Laboratorio virtuale > Distribuzioni > 1 2 3 4 5 6 7 [8] 9Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Convergenza in distribuzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist8.html (6 di 6) [22/11/2001 17.47.16]

Page 124: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni > 1 2 3 4 5 6 7 8 [9]

9. Note conclusive

Libri

Questo capitolo copre argomenti fondamentali che sono trattati, a vari livelli diapprofondimento, in ogni libro di probabilità.

An Introduction to Probability Theory and its Applications, Volume 1 (terzaedizione) di William Feller è considerato uno dei migliori testi sulla probabilità maiscritti.

Un testo eccellente per la probabilità elementare ricco di esempi ed esercizi è AFirst Course in Probability (quinta edizione) di Sheldon Ross

Una trattazione sintetica della probabilità elementare si ha in The Essentials ofProbability di Richard Durrett

Per una trattazione più completa dal punto di vista della misura della probabilità,puoi vedere Probability and Measure, di Patrick Billingsley.

Una trattazione della storia della probabilità è in Games, Gods and Gambling, diFlorence David

Siti esterni

Il sito più importante per informazioni storiche sulla probabilità è History ofMathematics.

Risposte agli esercizi del paragrafo 1

1.2.

P[(X1, X2) = (x1, x2)] = 1 / 36 per (x1, x2) appartenente a {1, 2, 3, 4, 5, 6}2.1.

P(Y = y) = (6 - |7 - y|) / 36, per y = 2, 3, ..., 12.2.

P(U = u) = (13 - 2u) / 36 per u = 1, 2, 3, 4, 5, 6.3.

P(V = v) = (2v - 1) / 36, per v = 1, 2, 3, 4, 5, 6.4.

P[(U, V) = (u, v)] = 2 / 36 se u < v, P[(U, V) = (u, v) = 1 / 36 se u = v, per u, v = 1,2, 3, 4, 5, 6.

5.

1.8. Sia f(y) = P(Y = y) = C(30, y) C(20, 5 - y) / C(50, 5);

f(0) = 0.0073, f(1) = 0.0686, f(2) = 0.2341, f(3) = 0.3641, f(4) = 0.2587, f(5) =0.0673

1.

moda: y = 3.2.

P(Y > 3) = 0.32593.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist9.html (1 di 16) [22/11/2001 17.47.35]

Page 125: Laboratorio virtuale di probabilità e statistica

1.12. Let f(k) = P(X = k) = C(5, x) (0.4)k (0.6)5 - k per k = 0, 1, 2, 3, 4, 5.

f(0) = 0.0778, f(1) = 0.2592, f(2) = 0.3456, f(3) = 0.2304, f(4) = 0.0768, f(5) =0.0102.

1.

moda: k = 22.

P(X > 3) = 0.9870.3.

1.15.

moda: n = 2.1.

P(N > 4) = 0.10882.

1.17. P(I = i1 i2 ... in) = (1 / 6)(1 / 2)n per n = 1, 2, 3, 4, 5, 6 e i1, i2, ..., in appartenente a{0, 1}.

1.19.

f(x) = x2 / 10 per x = -2, -1, 0, 1, 2.1.

mode: x = -2, 2.2.

P(X {-1, 1, 2}) = 3 / 5.3.

1.20.

f(n) = (1 - q)qn per n = 0, 1, 2, ...1.

P(X < 2) = 1 - q2.2.

P(X è pari) = 1 / (1 + q).3.

1.21.

f(x, y) = (x + y) / 18 per (x, y) {0, 1, 2}2.1.

moda (2, 2).2.

P(X > Y) = 1 / 3.3.

1.22.

f(x, y) = xy / 25 per (x, y) {(1, 1), (1, 2), (1, 3), (2, 2), (2, 3), (3, 3)}.1.

moda (3, 3).2.

P[(X, Y) {(1, 2), (1, 3), (2, 2), (2, 3)}] = 3 / 5.3.

1.26. P(X = x | X > 0) = x2 / 5 per x = 1, 2.

1.27. P(U = 2 | Y = 8) = 2 / 5, P(U = 3 | Y = 8) = 2 / 5, P(U = 4 | Y = 8) = 1 / 5.

1.31. Sia N il punteggio del dado e X il numero di teste.

P(X = 2) = 33 / 128.1.

P(N = n | X = 2) = (64 / 99) C(n, 2) (1 / 2)n per n = 2, 3, 4, 5, 6.2.

1.33. Sia V la probabilità di testa per la moneta estratta e X il numero di teste.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist9.html (2 di 16) [22/11/2001 17.47.35]

Page 126: Laboratorio virtuale di probabilità e statistica

P(X = 2) = 169 / 432.1.

P(V = 1 / 2 | X = 2) = 45 / 169, P(V = 1 / 3 | X = 2) = 16 / 169, P(V = 1 | X = 2) =108 / 169.

2.

1.34. Sia X il punteggio del dado

P(X = x) = 5 / 24 per x = 1, 6; P(X = x) = 7 / 48 per x = 2, 3, 4, 5.

1.36. Sia X il numero della linea produttiva e D l'evento in cui il pezzo è difettoso.

P(D) = 0.0371.

P(X = 1 | D) = 0.541, P(X = 2 | D) = 0.405, P(X = 3 | D) = 0.0542.

1.37. Le tabelle riportano le funzioni di densità empirica (frequenze relative)

r 3 4 5 6 8 9 10 11 12 14 15 20P(R = r) 1/30 3/30 2/30 2/30 4/30 5/30 2/30 1/30 3/30 3/30 3/30 1/30

1.

n 50 53 54 55 56 57 58 59 60 61P(N = n) 1/30 1/30 1/30 4/30 4/30 3/30 9/30 3/30 2/30 2/30

2.

r 3 4 6 8 9 11 12 14 15P(R = r | N > 57) 1/16 1/16 1/16 3/16 3/16 1/16 1/16 3/16 2/16

3.

1.38. Sesso G: 0 (femmina), 1 (maschio). Specie S: 0 (tredecula), 1 (tredecim), 2(tredecassini). Le tabelle riportano le funzioni di densità empirica (frequenze relative).

i 0 1P(G = i) 59 / 104 45 / 104

1.

j 0 1 2P(S = j) 44 / 104 6 / 104 54 / 104

2.

P(G = i, S = j)i

0 1

j0 16 / 104 28 / 1041 3 / 104 3 / 1042 40 / 104 14 / 104

3.

i 0 1P(G = i | W > 0.2 31 / 73 42 / 73

4.

Risposte agli esercizi del paragrafo 2

2.4. P(T > 2) = exp(-1) = 0.3679

2.5.

moda a = / 2.2.

P(A < / 4) = 1 - 1 / 21/2 ~ 0.2929.3.

2.8. P(T > 3) = (17 / 2) exp(-3) ~ 0.4232.

2.11.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist9.html (3 di 16) [22/11/2001 17.47.36]

Page 127: Laboratorio virtuale di probabilità e statistica

f(x) = 12x2(1 - x), 0 < x < 1.2.

P(1 / 2 < X < 1) = 11 / 16.3.

2.13.

P(-1 < X < 1) = 1 / 2.3.

2.17.

P(Y > 2X) = 5 / 24.2.

2.18.

f(x, y) = 2(x + y), 0 < x < y < 1.1.

P(Y > 2X) = 5 / 12.2.

2.19.

f(x, y) = 6x2y, 0 < x < 1, 0 < y < 1.1.

P(Y > X) = 2 / 5.2.

2.20.

f(x, y) = 15x2y, 0 < x < y < 1.1.

P(Y > 2X) = 1 / 8.2.

2.21.

f(x, y, z) = (x + 2y + 3z) / 3 per 0 < x < 1, 0 < y < 1, 0 < z < 1.1.

P(X < Y < Z) = 7 / 36.2.

2.23. P(X > 0, Y > 0) = 1 / 4.

2.25. P(X > 0, Y > 0) = 1 / 4.

2.27. P(X > 0, Y > 0) = 1 / 4.

2.29. P(X < Y < Z) = 1 / 6.

2.30.

P(T > 30) = 2 / 3.1.

P(T > 45 | T > 30) = 1 / 2.2.

2.33. f(x, y | X < 1 / 2, Y < 1 / 2) = 8(x + y), 0 < x < 1 / 2, 0 < y < 1 / 2.

2.34. Le densità empriche, basate su semplici partizioni del campo di variazione delpeso e della lunghezza corporei, sono riportate nelle tabelle:

BW (0, 0.1] (0.1, 0.2] (0.2, 0.3] (0.3, 0.4]Densità 0.8654 5.8654 3.0769 0.1923

1.

BL (15, 20] (20, 25] (25, 30] (30, 35]2.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist9.html (4 di 16) [22/11/2001 17.47.36]

Page 128: Laboratorio virtuale di probabilità e statistica

Densità 0.0058 0.1577 0.0346 0.0019BW (0, 0.1] (0.1, 0.2] (0.2, 0.3] (0.3, 0.4]

Densità(G = 0) 0.3390 4.4068 5.0847 0.1695

3.

2.36.

P(Y > X) = 1 / 2.3.

2.37.

P(Y > X) = 1 / 2.3.

Risposte agli esercizi del paragrafo 3

3.6. P(X > 6) = 13 / 40.

3.7. P(Y > X) = 4 / 9.

3.9.

P(U < 1) = 1 - exp(-1) ~ 0.63211.

P(U = 2) = exp(-2) ~ 0.13532.

3.13.

P(X > 1, Y < 1) = 5 / 18.2.

3.14.

P(V < 1 / 2, X = 2) = 33 / 320 ~ 0.10312.

Risposte agli esercizi del paragrafo 4

4.6. Le densità congiunte e marginali sono riportate nella tabella seguente; Y e Z sonodipendenti.

P(Y = y, Z = z)y

P(Z = z)2 3 4 5 6 7 8 9 0 11 12

z

-5 0 0 0 0 0 1/36 0 0 0 0 0 1/36-4 0 0 0 0 1/36 0 1/36 0 0 0 0 2/36-3 0 0 0 1/36 0 1/36 0 1/36 0 0 0 3/36-2 0 0 1/36 0 1/36 0 1/36 0 1/36 0 0 4/36-1 0 1/36 0 1/36 0 1/36 0 1/36 0 1/36 0 5/360 1/36 0 1/36 0 1/36 0 1/36 0 1/36 0 1/36 6/361 0 1/36 0 1/36 0 1/36 0 1/36 0 1/36 0 5/362 0 0 1/36 0 1/36 0 1/36 0 1/36 0 0 4/363 0 0 0 1/36 0 1/36 0 1/36 0 0 0 3/364 0 0 0 0 1/36 0 1/36 0 0 0 0 2/365 0 0 0 0 0 1/36 0 0 0 0 0 1/36

P(Y = y) 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36 1

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist9.html (5 di 16) [22/11/2001 17.47.36]

Page 129: Laboratorio virtuale di probabilità e statistica

4.7. Le densità congiunte e marginali sono riportate nella tabella seguente; U e V sonodipendenti.

P(U = u, V = v)u

P(V = v)1 2 3 4 5 6

v

1 1/36 0 0 0 0 0 1/362 2/36 1/36 0 0 0 0 3/363 2/36 2/36 1/36 0 0 0 5/364 2/36 2/36 2/36 1/36 0 0 7/365 2/36 2/36 2/36 2/36 1/36 0 9/366 2/36 2/36 2/36 2/36 2/36 1/36 11/36

P(U = u) 11/36 9/36 7/36 5/36 3/36 1/36 1

4.8.

g(x) = x + 1/2 per 0 < x < 1.1.

h(y) = y + 1/2 per 0 < y < 1.2.

X e Y sono dipendenti.3.

4.9.

g(x) = (1 + 3x)(1 - x) per 0 < x < 1.1.

h(y) = 3y2 per 0 < y < 1.2.

X e Y sono dipendenti.3.

4.10.

g(x) = 3x2 per 0 < x < 1.1.

h(y) = 2y per 0 < y < 1.2.

X e Y sono indipendenti.3.

4.11.

g(x) = (15 / 2)(x2 - x4) per 0 < x < 1.1.

h(y) = 5y4 per 0 < y < 1.2.

X e Y sono dipendenti.3.

4.12.

f(X, Y)(x, y) = x + y per 0 < x < 1, 0 < y < 1.1.

f(X, Z)(x, z) = 2z(x + 1 / 2) per 0 < x < 1, 0 < z < 1.2.

f(Y, Z)(y, z) = 2z(y + 1 / 2) per 0 < y < 1, 0 < z < 1.3.

fX(x) = x + 1 / 2 per 0 < x < 1.4.

fY(y) = y + 1 / 2 per 0 < y < 1.5.

fZ(z) = 2z per 0 < z < 1.6.

Z e (X, Y) sono indipendenti; X e Y sono dipendenti.7.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist9.html (6 di 16) [22/11/2001 17.47.36]

Page 130: Laboratorio virtuale di probabilità e statistica

4.16.

f(x, y) = 1 / 144, per -6 < x < 6, -6 < y < 6.1.

g(x) = 1 / 12 per -6 < x < 6.2.

h(y) = 1 / 12 per - 6 < y < 6.3.

X e Y sono indipendenti.4.

4.18.

f(x, y) = 1 / 72, per -6 < y < x < 6.1.

g(x) = (x + 6) / 72 per -6 < x < 6.2.

h(y) = (6 - y) / 72 per - 6 < y < 6.3.

X e Y sono dipendenti.4.

4.20.

f(x, y) = 1 / 36 per x2 + y2 < 36.1.

g(x) = (36 - x2)1/2 / 18 per -6 < x < 6.2.

h(y) = (36 - y2)1/2 / 18 per - 6 < y < 6.3.

X e Y sono dipendenti.4.

4.22.

f(x, y, z) = 1 per 0 < x < 1, 0 < y < 1, 0 < z < 1 (distribuzione uniforme su (0, 1)3).1.

(X, Y), (X, Z), e (Y, Z) hanno funzione di densità comune h(u, v) = 1 per 0 < u < 1,0 < v < 1 (distribuzione uniforme su (0, 1)2).

2.

X, Y, e Z hanno funzione di densità comune g(u) = 1 per 0 < u < 1 (distribuzioneuniforme su (0, 1)).

3.

X, Y, Z sono (mutualmente) indipendenti.4.

4.23.

f(x, y, z) = 6 per 0 < x < y < z < 1.1.

f(X, Y)(x, y) = 6(1 - y) per 0 < x < y < 1.2.

f(X, Z)(x, z) = 6(z - x) per 0 < x < z < 1.3.

f(Y, Z)(y, z) = 6y per 0 < y < z < 1.4.

fX(x) = 3(1 - x)2 per 0 < x < 1.5.

fY(y) = 6y(1 - y) per 0 < y < 1.6.

fZ(z) = 3z2 per 0 < z < 1.7.

Le variabili di ciascuna coppia sono dipendenti.8.

4.25.

g(x) = 1 / 3 per x = 1, 2, 3 (distribuzione uniforme su {1, 2, 3}).1.

h(y) = 11 / 18 per 0 < y < 1, h(y) = 5 / 18 per 1 < y < 2, h(y) = 2 / 18 per 2 < y < 3.2.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist9.html (7 di 16) [22/11/2001 17.47.36]

Page 131: Laboratorio virtuale di probabilità e statistica

X e Y sono dipendenti.3.

4.26.

g(p) = 6p(1 - p) per 0 < p < 1.1.

h(0) = 1 / 5, h(1) = 3 / 10, h(2) = 3 / 10, h(3) = 1 / 5.2.

X e Y sono dipendenti.3.

4.27. Le densità empiriche congiunte e marginali sono presentate nella tabellaseguente. Sesso e specie sono probabilmente dipendenti (confronta la densità congiuntacol prodotto delle densità marginali).

P(G = i, S = j)i

P(S = j)0 1

j0 16 / 104 28 / 104 44 / 1041 3 / 104 3 / 104 6 / 1042 40 / 104 14 / 104 56 / 104

P(G = i) 59 / 104 45 / 104 1

4.28. Le densità empiriche congiunte e marginali, basate su semplici partizioni delcampo di variazione di peso e lunghezza corporei, sono presentate nella tabella seguente.Il peso e la lunghezza corporei sono quasi certamente dipendenti.

Densità (BW, BL)BW

Densità BL(0, 0.1] (0.1, 0.2] (0.2, 0.3] (0.3, 0.4]

BL

(15, 20] 0 0.0385 0.0192 0 0.0058(20, 25] 0.1731 0.9808 0.4231 0 0.1577(25, 30] 0 0.1538 0.1731 0.0192 0.0346(30, 35] 0 0 0 0.0192 0.0019Densità BW 0.8654 5.8654 3.0769 0.1923

4.29. Le densità empiriche congiunte e marginali, basate su semplici partizioni delcampo di variazione del peso corporeo, sono presentate nella tabella seguente. Il peso e ilsesso sono quasi certamente dipendenti.

Densità (BW, G)BW

Densità G(0, 0.1] (0.1, 0.2] (0.2, 0.3] (0.3, 0.4]

G0 0.1923 2.5000 2.8846 0.0962 0.56731 0.6731 3.3654 0.1923 0.0962 0.4327

Densità BW 0.8654 5.8654 3.0769 0.1923

Risposte agli esercizi del paragrafo 5

5.9. Le densità condizionate di U dati i diversi valori di V sono riportate nella tabellaseguente.

P(U = u | V = v)u

1 2 3 4 5 61 1 0 0 0 0 0

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist9.html (8 di 16) [22/11/2001 17.47.37]

Page 132: Laboratorio virtuale di probabilità e statistica

v

2 2/3 1/3 0 0 0 03 2/5 2/5 1/5 0 0 04 2/7 2/7 2/7 1/7 0 05 2/9 2/9 2/9 2/9 1/9 06 2/11 2/11 2/11 2/11 2/11 1/11

5.10. Le denistà congiunte e marginali sono presentate nella prima tabella. Le densitàcondizionate di N dati i diversi valori di X sono riportati nella seconda tabella.

P(N = n, X = k)n

P(X = k)1 2 3 4 5 6

k

0 1/12 1/24 1/48 1/96 1/192 1/384 21/1281 1/12 1/12 1/16 1/24 5/192 1/64 5/162 0 1/24 1/16 1/16 5/96 5/128 33/1283 0 0 1/48 1/24 5/96 5/96 1/64 0 0 0 1/96 5/192 5/128 29/3845 0 0 0 0 1/192 1/64 1/486 0 0 0 0 0 1/384 1/384

P(N = n) 1/6 1/6 1/6 1/6 1/6 1/6 1

P(N = n | X = k)n

1 2 3 4 5 6

k

0 32/63 16/63 8/63 4/63 2/63 1/631 16/60 16/60 12/60 8/60 5/60 3/602 0 16/99 24/99 24/99 20/99 15/993 0 0 2/16 4/16 5/16 5/164 0 0 0 4/29 10/29 15/295 0 0 0 0 1/4 3/46 0 0 0 0 0 1

5.12. Le denistà congiunte e marginali sono presentate nella prima tabella. Le densitàcondizionate di I dati i diversi valori di X sono riportati nella seconda tabella.

P(I = i, X = k)k

P(I = i)1 2 3 4 5 6

i0 1/12 1/12 1/12 1/12 1/12 1/12 1/21 1/8 1/16 1/16 1/16 1/16 1/8 1/2

P(X = k) 5/24 7/48 7/48 7/48 7/48 5/24 1

P(I = i | X = k)k

1 2 3 4 5 6

i0 2/5 4/7 4/7 4/7 4/7 2/51 3/5 3/7 3/7 3/7 3/7 3/5

5.14. La densità congiunta di (V, X) e la densità marginale di X sono riportate nellaprima tabella. Le distribuzioni condizionate di V dati i diversi valori di X sono presentatenella seconda tabella.

k

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist9.html (9 di 16) [22/11/2001 17.47.37]

Page 133: Laboratorio virtuale di probabilità e statistica

P(V = p, X = k) P(V = p)0 1 2

p1/2 5/48 10/48 5/48 5/121/3 1/27 4/27 4/27 4/121 0 0 1/4 3/12

P(X = k) 61/432 154/432 217/432 1

P(V = p | X = k)k

0 1 2

p1/2 45/61 45/77 36/2171/3 16/61 32/77 64/2171 0 0 108/217

5.15. Sia N il numero della lampadina e T la durata.

P(T > 1) = 0.11561.

n 1 2 3 4 5P(N = n | T > 1) 0.6364 0.2341 0.0861 0.0317 0.0117

b.

5.16.

P(N = n, X = k) = exp(-1) pk (1 - p)n - k / [k! (n - k)!] per n = 0, 1, ...; k = 0, ..., n.1.

P(X = k) = exp(-p) pk / k! per k = 0, 1, ... (Poisson con parametro p).2.

P(N = n | X = k) = exp[-(1 - p)] (1 - p)n - k / (n - k)! per n = k, k + 1, ...3.

5.17.

f(i, y) = 1 / 3i per i = 1, 2, 3 and 0 < y < i.1.

h(y) = 11 / 18 per 0 < y < 1, h(y) = 5 / 18 per 1 < y < 2, h(y) = 2 / 18 per 2 < y < 3.2.

Se 0 < y < 1 allora g(1 | y) = 6 / 11, g(2 | y) = 3 / 11, g(3 | y) = 2 / 11.Se 1 < y < 2 allora g(1 | y) = 0, g(2 | y) = 3 / 5, g(3 | y) = 2 / 5.Se 2 < y < 3 allora g(1 | y) = 0, g(2 | y) = 0, g(3 | y) = 1.

3.

5.18.

g(x | y) = (x + y) / (y + 1/2) per 0 < x < 1, 0 < y < 1.1.

h(y | x) = (x + y) / (x + 1/2) per 0 < x < 1, 0 < y < 1.2.

X e Y sono dipendenti.3.

5.19.

g(x | y) = (x + y) / 3y2 per 0 < x < y < 1.1.

h(y | x) = (x + y) / [(1 + 3x)(1 - x)] per 0 < x < y < 1.2.

X e Y sono dipendenti.3.

5.20.

g(x | y) = 3x2 / y3 per 0 < x < y < 1.1.

h(y | x) = 2y / (1 - x2) per 0 < x < y < 1.2.

X e Y sono dipendenti.3.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist9.html (10 di 16) [22/11/2001 17.47.37]

Page 134: Laboratorio virtuale di probabilità e statistica

5.21.

g(x | y) = 3x2 per 0 < x < 1, 0 < y < 1.1.

h(y | x) = 2y per 0 < x < 1, 0 < y < 1.2.

X e Y sono indipendenti.3.

5.22.

f(p, k) = 6 C(3, k) pk + 1 (1 - p)4 - k per 0 < p < 1, k = 0, 1, 2, 3.1.

h(0) = 1 / 5, h(1) = 3 / 10, h(2) = 3 / 10, h(3) = 1 / 5.2.

g(p | 0) = 30 p (1 - p)4, g(p | 1) = 60 p2 (1 - p)3, g(p | 2) = 60 p3 (1 - p)2, g(p | 3) =30 p4 (1 - p), 0 < p < 1.

3.

5.23.

f(x, y) = 1 / x per 0 < y < x < 1.1.

h(y) = -ln(y) per 0 < y < 1.2.

g(x | y) = -1 / [x ln(y)] per 0 < y < x < 1.3.

5.26.

h(y | x) = 1 / 12 per -6 < x < 6, -6 < y < 6.1.

g(x | y) = 1 / 12 per -6 < x < 6, -6 < y < 6.2.

X e Y sono indipendenti.3.

5.28.

h(y | x) = 1 / (x + 6) per -6 < y < x < 6.1.

g(x | y) = 1 / (6 - y) per -6 < y < x < 6.2.

X e Y sono dipendenti.3.

5.30.

h(y | x) = 1 / 2(36 - x2)1/2 per x2 + y2 < 361.

g(x | y) = 1 / 2(36 - y2)1/2 per x2 + y2 < 362.

X e Y sono dipendenti.3.

5.32.

f(X, Y) | Z(x, y | z) = 2 / z2 per 0 < x < y < z < 1.a.

f(X, Z) | Y(x, z | y) = 1 / y(1 - y) per 0 < x < y < z < 1.b.

f(Y, Z) | X(y, z | x) = 2 / (1 - x)2 per 0 < x < y < z < 1.c.

fX | (Y, Z)(x | y , z) = 1 / y per 0 < x < y < z < 1.d.

fY | (X, Z)(y | x , z) = 1 / (z - x) per 0 < x < y < z < 1.e.

fZ | (X, Y)(z | x , y) = 1 / (1 - y) per 0 < x < y < z < 1.f.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist9.html (11 di 16) [22/11/2001 17.47.37]

Page 135: Laboratorio virtuale di probabilità e statistica

Risposte agli esercizi del paragrafo 6

6.12.

y (- ,2)

[2, 3) [3, 4) [4, 5) [5, 6) [6, 7) [7, 8) [8, 9) [9, 10) [10, 11) [11, 12)[12,

)

P(Y y)

0 1/36 3/36 6/36 10/36 15/36 21/36 26/36 30/36 33/36 35/36 1

v (- , 1) [1, 2) [2, 3) [3, 4) [4, 5) [5, 6) [6, )

P(V v) 0 1/36 4/36 9/36 16/36 25/36 1

y (- , 6) [6, 7) [7, 8) [8, 9) [9, 10) [10, )

P(Y y | V = 5) 0 2/9 4/9 6/9 8/9 1

6.13.

P(X x) = 0 per x < a, P(X x) = (x - a) / (b - a), per a x < b, P(X x) = 1

per x b.

a.

6.14.

P(X x) = 0 per x < 0, P(X x) = 4x3 - 3x4 per 0 x < 1, P(X x) = 1 per x b.

a.

6.15.

P(X x) = 0 per x < 0, P(X x) = 1 - exp(-rx) per x 0.a.

6.16.

P(X x) = 0 per x < 1, P(X x) = 1 - 1 / xa per x 1.a.

6.17.

P(X x) = 1/2 + (1/ ) arctan(x)a.

6.19.

f(1) = 1/10, f(3/2) = 1/5, f(2) = 3/10, f(5/2) = 3/10, f(3) = 1/10.2.

P(2 X < 3) = 3/54.

6.20.

f(x) = 1 / (x + 1)2 per x > 0.2.

P(2 X < 3) = 1/12.4.

6.21.

g(1) = g(2) = g(3) = 1/12.3.

h(x) = 1/4 per 0 < x < 1, h(x) = (x - 1) / 2 per 1 < x < 2, h(x) = 3(x - 1)2 / 4 per 2 < x< 3.

4.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist9.html (12 di 16) [22/11/2001 17.47.37]

Page 136: Laboratorio virtuale di probabilità e statistica

P(2 X < 3) = 1/3.5.

6.27.

F-1(p) = a + (b - a)p per 0 < p < 1.1.

min = a, Q1 = (3a + b) /4, Q2 = (a + b) / 2, Q3 = (a + 3b) / 4, max = b.2.

6.28.

F-1(p) = -ln(1 - p) / r per 0 < p < 1.1.

Q1 = [ln(4) - ln(3)] / r, Q2 = ln(2) / r, Q3 = ln(4) / r, Q3 - Q1 = ln(3) / r.2.

6.29.

F-1(p) = (1 - p)-1/a per 0 < p < 1.1.

Q1 = (3 / 4)-1/a, Q2 = (1 / 2)-1/a, Q3 = (1 / 4)-1/a, Q3 - Q1 = (1 / 4)-1/a - (3 / 4)-1/a.2.

6.30.

F-1(p) = tan[ (p - 1/2)] per 0 < p < 1.1.

Q1 = -1, Q2 = 0, Q3 = 1, Q3 - Q1 = 2.2.

6.31.

F-1(p) = 1, 0 < p 1/10●

F-1(p) = 3 / 2, 1 / 10 < p 3 / 10●

F-1(p) = 2, 3 / 10 < p 6 / 10●

F-1(p) = 5 / 2, 6 / 10 < p 9 / 10●

F-1(p) = 3, 9 / 10 < p 1●

6.32. F-1(p) = p / (1 - p) per 0 < p < 1.

6.33.

F-1(p) = 4p, 0 < p 1 / 4●

F-1(p) = 1, 1 / 4 < p 1 / 3●

F-1(p) = 1 + [4(p - 1 / 3)]1/2, 1 / 3 < p 7 / 12●

F-1(p) = 2, 7 / 12 < p 8 / 12●

F-1(p) = 2 + [4(p - 2 / 3)]1/3, 2 / 3 < p 11 / 12●

F-1(p) = 3, 11 / 12 < p 1●

6.41.

G(t) = exp[-tk + 1 / (k + 1)] per t > 0.1.

f(t) = tk exp[-tk + 1 / (k + 1)] per t > 0.2.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist9.html (13 di 16) [22/11/2001 17.47.38]

Page 137: Laboratorio virtuale di probabilità e statistica

6.44.

F(x, y) = (xy2 + yx2) / 2 per 0 < x < 1, 0 < y < 1.1.

G(x) = (x + x2) / 2 per 0 < x < 1.2.

H(y) = (y + y2) / 2 per 0 < y < 1.3.

G(x | y) = (x2 / 2 + xy) / (y + 1 / 2) per 0 < x < 1, 0 < y < 1.4.

H(y | x) = (y2 / 2 + xy) / (x + 1 / 2) per 0 < x < 1, 0 < y < 1.5.

X e Y sono dipendenti.6.

6.45. Sia N il numero complessivo di pastiglie. La funzione di ripartizione empirica diN è a gradini; la tabella seguente riporta i valori della funzione nei punti di discontinuità.

n 50 53 54 55 56 57 58 59 60 61

P(N n) 1/30 2/30 3/30 7/30 11/30 14/30 23/30 36/30 28/30 1

Risposte agli esercizi del paragrafo 7

7.4. Vedi 4.6 e 4.7.

7.5. Sia Y = floor(T) e Z = ceil(T).

P(Y = n) = exp(-rn)[1 - exp(-r)] per n = 0, 1, ...1.

P(Z = n) = exp[-r(n - 1)][1 - exp(-r)] per n = 1, 2, ...2.

7.6.

P(I = i, J = j)i

0 1

j0 1/8 1/41 1/4 3/8

7.7.

G(y) = y1/2 / 2 per 0 < y < 4.1.

g(y) = y -1/2 / 4 per 0 < y < 42.

7.8.

G(y) = y1/2 / 2 per 0 < y < 1, G(y) = (y1/2 + 1) / 4 per 1 < y < 91.

g(y) = y -1/2 / 4 per 0 < y < 1, g(y) = y -1/2 / 8 per 1 < y < 9.2.

7.9.

G(y) = 1 - exp(-ay) per y > 0.1.

g(y) = a exp(-ay) per y > 0.2.

7.10.

G(z) = 1 - 1 / (1 + z) per z > 0.1.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist9.html (14 di 16) [22/11/2001 17.47.38]

Page 138: Laboratorio virtuale di probabilità e statistica

g(z) = 1 / (1 + z)2 per z > 0.2.

7.15. X = a + U(b - a) dove U è un numero casuale (uniformemente distribuito su (0,1)).

7.16. X = -ln(1 - U) / r dove U è un numero casuale (uniformemente distribuito su (0,1)).

7.17. X = 1 / (1 - U)1/a dove U è un numero casuale (uniformemente distribuito su (0,1)).

7.20. g(y) = y -1/2 / 4 per 4 < y < 16.

7.21. g(y) = y8 per -1 < y < 21/3.

7.22. g(y) = aya - 1 per 0 < y < 1.

7.23.

g(u, v) = 1/2 per (u, v) appartenente al quadrato di vertici (0, 0), (1, 1), (2, 0), (1,-1). Quindi, (U, V) è distribuito uniformemente su tale quadrato.

2.

h(u) = u per 0 < u < 1, h(u) = 2 - u per 1 < u < 2.3.

k(v) = 1 - v per 0 < v < 1, k(v) = 1 + v per -1 < v < 04.

7.24.

g(u, v) = u1/2 v -3/2 (1 + v) per 0 < u < 1 / v, v > 1.1.

h(u) = 2(1 - u) per 0 < u < 1.2.

k(v) = (2 / 3)(1 / v3 + 1 / v2) per v > 1.3.

7.28. g(u, v, w) = 1 / 2 per (u, v, w) appartenente alla regione rettangolare di R3 divertici

(0, 0, 0), (1, 0, 1), (1, 1, 0), (0, 1, 1), (2, 1, 1), (1, 1, 2), (1, 2, 1), (2, 2, 2).

7.29. g(u, v) = exp[-(4u + v) / 7] / 7 per -3v / 4 < u < 2v, v > 0.

7.33. Sia Y = X1 + X2 la somma dei punteggi.

y 2 3 4 5 6 7 8 9 10 11 12P(Y = y) 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36

7.35. SiaY = X1 + X2 la somma dei punteggi.

y 2 3 4 5 6 7 8 9 10 11 12P(Y = y) 1/16 1/16 5/64 3/32 7/64 3/16 7/64 3/32 6/64 1/16 1/16

7.37. Sia Y = X1 + X2 la somma dei punteggi.

y 2 3 4 5 6 7 8 9 10 11 12

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist9.html (15 di 16) [22/11/2001 17.47.38]

Page 139: Laboratorio virtuale di probabilità e statistica

P(Y = y) 2/48 3/48 4/48 5/48 6/48 8/48 6/48 5/48 4/48 3/48 2/48

7.38. Sia h la densità di Z.

h(z) = a2 z exp(-az) per z > 0 se a = b.1.

h(z) = ab[exp(-az) - exp(-bz)] / (b - a) se a b.2.

7.39..

f*2(z) = z per 0 < z < 1, f*2(z) = 2 - z per 1 < z < 2.1.

f*3(z) = z2 / 2 per 0 < z < 1, f*3(z) = 1 - (z - 1)2 / 2 - (2 - z)2 / 2 per 1 < z < 2, f*3(z)= (3 - z)2 / 2 per 2 < z < 3.

2.

7.42.

G(t) = 1 - (1 - t)n per 0 < t < 1. g(t) = n(1 - t)n - 1 per 0 < t < 1.1.

H(t) = tn per 0 < t < 1, h(t) = n tn - 1 per 0 < t < 1.2.

7.43.

G(t) = exp(-nrt) per t > 0, g(t) = nr exp(-nrt) per t > 0.1.

H(t) = 1 - [1 - exp(-rt)]n per t > 0, h(t) = [1 - exp(-rt)]n - 1 nr exp(-rt)] per t > 02.

7.44. Sia U il punteggio minimo e V il punteggio massimo.

P(U = k) = [1 - (k - 1) / 6]n - (1 - k / 6)n per k = 1, 2, 3, 4, 5, 6.1.

P(V = k) = (k / 6)n - [(k - 1) / 6]n per k = 1, 2, 3, 4, 5, 6.2.

7.45. Sia U il punteggio minimo e V il punteggio massimo.

k 1 2 3 4 5 6P(U = k) 1 - (3/4)n (3/4)n - (5/8)n (5/8)n - (1/2)n (1/2)n - (3/8)n (3/8)n - (1/4)n (1/4)n

1.

k 1 2 3 4 5 6P(V = k) (1/4)n (3/8)n - (1/4)n (1/2)n - (3/8)n (5/8)n - (1/2)n (3/4)n - (5/8)n 1 - (3/4)n

2.

Laboratorio virtuale > Distribuzioni > 1 2 3 4 5 6 7 8 [9]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/dist/dist9.html (16 di 16) [22/11/2001 17.47.38]

Page 140: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Spazi di Probabilità > [1] 2 3 4 5 6 7 8

1. Esperimenti casuali

Esperimenti

La teoria della probabilità è basata sul concetto di esperimento casuale; ovvero unesperimento il cui risultato non può essere previsto con certezza prima di eseguirel'esperimento. Di solito si assume che l'esperimento possa essere ripetuto all'infinito,essenzialmente sotto le stesse condizioni. Questa assunzione è importante poiché la teoriadella probabilità si occupa dei risultati di lungo termine, al replicare dell'esperimento.Ovviamente, la definizione completa di un esperimento casuale richiede che si individuicon precisione quali informazioni relative all'esperimento si registrano, ovvero quello checostituisce l'esito dell'esperimento.

Il termine parametro si riferisce a una quantità non aleatoria, di interesse per il modello,che una volta fissata resta costante. Molte modelli per esperimenti casuali possiedono unoo più parametri che si possono modificare per adattarsi allo specifico esperimento che siintende modellare.

Esperimenti composti

Supponiamo di avere n esperimenti E1, E2, ..., En. Possiamo generare un nuovoesperimento, composto, eseguendo in sequenza gli n esperimenti (E1 è il primo, E2 ilsecondo, e così via), independentemente l'uno dall'altro. Il termine indipendente significa,intuitivamente, che l'esito di un esperimento non ha influenza sugli altri. Definiremoquesto concetto in termini formali più avanti.

Supponiamo in particolare di avere un esperimento semplice. Un numero fissato (o ancheinfinito) di replicazioni indipendenti dell'esperimento semplice costituisce un nuovoesperimento composto. Molti esperimenti si rivelano essere composti e in più, comeabbiamo già osservato, la stessa teoria della probabilità si basa sull'idea di replicare gliesperimenti.

Supponiamo ora di avere un esperimento semplice con due possibili esiti. Le replicazioniindipendenti di questo esperimento si dicono prove Bernoulliane. Questo modello è unodei più semplici, ma anche dei più importanti, per la teoria della probabilità. Supponiamo,più in generale, di avere un esperimento con k possibili esiti. Le replicazioni indipendentidi questo esperimento si dicono prove multinomiali.

A volte un esperimento si presenta a stadi ben definiti, ma in maniera dipendente, nelsenso che l'esito di un certo stadio è influenzato dagli esiti degli stadi precedenti.

Esperimenti di campionamento

In molti studi statistici, il dato di partenza è una popolazione di unità di interesse. Le unitàpossono essere persone, chip di memoria, campi di grano, o qualsivoglia. Di solito si

Esperimenti casuali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob1.html (1 di 3) [22/11/2001 17.47.44]

Page 141: Laboratorio virtuale di probabilità e statistica

hanno uno o più misure numeriche di interesse: l'altezza e il peso di una persona, la duratadi un chip di memoria, la quantità di pioggia, di fertilizzante e la produzione di un campodi grano.

Anche se si è interessati all'intera popolazione di unità, di solito tale insieme è troppogrande per essere studiato. Si raccoglie allora un campione casuale di unità dallapopolazione e si registrano le misurazioni di interesse per ciascuna unità del campione.

Esistono due tipi fondamentali di campionamento. Se campioniamo con reinserimento,ogni unità è reinserita nella popolazione prima di ogni estrazione; pertanto, una singolaunità può presentarsi più di una volta nel campione. Se campioniamo senza reinserimento,le unità estratte non vengono reinserite nella popolazione. Il capitolo sui Modelli dicampionamento finiti analizza vari modelli basati sul campionamento da una popolazionefinita.

Il campionamento con reinserimento può essere pensato come un esperimento composto,basato su singole replicazioni dell'esperimento semplice consiste nell'estrarre una singolaunità dalla popolazione e registrarne le misure di interesse. Al contrario, un esperimentocomposto consistente in n replicazioni indipendenti di un esperimento semplice che puòessere pensato come campionamento. D'altro canto, il campionamento senza ripetizione èun esperimento formato da stadi dipendenti.

Esercizi

1. Considera l'esperimento di lanciare n monete (distinte) e di registrare l'esito (testa ocroce) per ogni moneta.

Identifica un parametro dell'esperimento1.

Definisci l'esperimento come composito2.

Identifica l'esperimento come estrazione con reinserimento3.

Identifica l'esperimento come n prove Bernoulliane4.

2. Nell'esperimento della moneta dell'esercizio 1, poni n = 5. Simula 100 replicazioni eosserva i risultati.

3. Considera l'esperimento di lanciare n dadi (distinti) e di registrare il numero di puntidi ogni dado.

Identifica un parametro dell'esperimento1.

Definisci l'esperimento come composito2.

Identifica l'esperimento come estrazione con reinserimento3.

Identifica l'esperimento come n prove multinomiali4.

4. Nell'esperimento dei dadi dell'esercizio 3, poni n = 5. Simula 100 replicazioni eosserva i risultati.

5. Considera l'esperimento consistente nell'estrarre n carte da un mazzo di 52.

Identifica l'esperimento come esperimento composito formato da stadi dipendenti1.

Esperimenti casuali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob1.html (2 di 3) [22/11/2001 17.47.44]

Page 142: Laboratorio virtuale di probabilità e statistica

Identifica l'esperimento come un campionamento senza ripetizione da unapopolazione

2.

6. Nell<a href="JavaScript:openApplet("CardExperiment")"class="applet">esperimento delle carte dell'esercizio 5, poni n = 5. Simula 100replicazioni e osserva gli esiti.

7. L'esperimento della moneta di Buffon consiste nel lanciare una moneta di raggio r

1/2 su un pavimento formato da mattonelle quadrate di lato 1. Si registrano lecoordinate del centro della moneta, relativamente ad assi che passano attraverso il centrodel quadrato e paralleli ai lati.

Identifica un parametro dell'esperimento1.

Definisci l'esperimento come composito2.

Identifica l'esperimento come estrazione con reinserimento3.

8. Nell'esperimento della moneta di Buffon, poni r = 0.1. Simula 100 replicazioni eosserva i risultati

9. Nel 1879, Albert Michelson ha effettuato un esperimento di misurazione dellavelocità della luce attraverso un interferometro. I dati sulla velocità della luce contengonoi risultati di 100 replicazioni dell'esperimento di Michelson. Osserva i dati e spiega, intermini generali, la loro variabilità.

10. Nel 1998, due studenti dell'università dell'Alabama a Huntsville hanno progettato ilseguente esperimento: acquistare un pacchetto di M&Ms (di una certa marcareclamizzata) e registrare il numero di pastiglie rosse, verdi, blu, arancio e gialle e il pesonetto (in grammi). Analizza i dati M&M e spiega, in termini generali, la loro variabilità.

11. Nel 1999, due ricercatori dell'università di Belmont hanno progettato il seguenteesperimento: catturare una cicala nella regione centrale del Tennessee e registrarne il pesocorporeo (in grammi), la lunghezza e larghezza delle ali, la lunghezza del corpo (inmillimetri), il sesso e la specie. I dati sulla cicala contengono i risultati di 104 replicazionidell'esperimento. Osserva i dati e spiega, in termini generali, la loro variabilità.

Laboratorio virtuale > Spazi di Probabilità > [1] 2 3 4 5 6 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Esperimenti casuali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob1.html (3 di 3) [22/11/2001 17.47.44]

Page 143: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Spazi di Probabilità > 1 [2] 3 4 5 6 7 8

2. Insiemi ed eventi

La teoria degli insiemi è fondamentale così per la probabilità come per quasi ogni altroramo della matematica. Nella probabilità, la teoria degli insiemi è utilizzata comelinguaggio per modellare e descrivere gli esperimenti.

Insiemi e sottinsiemi

Per iniziare, un insieme è, semplicemente, una collezione di oggetti; gli oggetti sono dettielementi dell'insieme. L'affermazione che s è un elemento dell'insieme S si scrive s S.(In questo progetto, per semplicità notazionale, useremo a volte solo la parola in.)

Se A e B sono insiemi, allora A è un sottinsieme di B se ogni elemento di A è anche unelemento di B:

A B se e solo se s A implica s B.

Per definizione, ogni insieme è completamente individuato dai suoi elementi. Pertanto, giinsiemi A e B sono uguali se hanno gli stessi elementi:

A = B se e solo se A B e B A.

Nella maggior parte delle applicazioni della teoria degli insiemi, tutti gli insiemi che siconsiderano sono sottinsiemi di un certo insieme universo. Al contrario, l'insieme vuoto,indicato con Ø, è un insieme privo di elementi.

1. Usa la definizione formale dell'implicazione per mostrare che l'insieme vuoto è unsottinsieme di ogni insieme A.

Un insieme si dice numerabile se può essere messo in corrispondenza uno a uno con unsottinsieme degli interi. Quindi, un insieme numerabile è un insieme, finito o infinito, chepuò essere "contato" con i numeri interi. Al contrario, l'insieme dei numeri reali non ènumerabile. Il termine corrispondenza uno a uno è definito formalmente nel prossimoparagrafo su funzioni e variabili casuali.

Spazio campionario ed eventi

Lo spazio campionario di un esperimento casuale è un insieme S che include tutti ipossibili esiti dell'esperimento; lo spazio campionario ha la funzione di insieme universonella modellazione dell'esperimento. Per gli esperimenti semplici, lo spazio campionario èesattamente l'insieme di tutti i possibili esiti. Più spesso, per gli esperimenti composti, lospazio campionario è un insieme matematicamente trattabile che comprende tutti ipossibili esiti e anche altri elementi. Per esempio, se l'esperimento consiste nel lanciare undado a sei facce e registrare il risultato, lo spazio campionario è S = {1, 2, 3, 4, 5, 6}, cioèl'insieme dei possibili esiti. D'altra parte, se l'esperimento consiste nel catturare una cicalae misurare il suo peso corporeo (in milligrammi), possiamo prendere come spazio

Insiemi ed eventi

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob2.html (1 di 11) [22/11/2001 17.47.59]

Page 144: Laboratorio virtuale di probabilità e statistica

campionario S = [0, ), anche se la maggior parte degli elementi di questo insieme sonoimpossibili all'atto pratico.

Certi sottinsiemi dello spazio campionario di un esperimento sono detti eventi. Quindi, unevento è un insieme di esiti di un esperimento. Ogni volta che si esegue l'esperimento, undato evento A si verifica, se l'esito dell'esperimento è un elemento di A, o non si verifica,se l'esito dell'esperimento non è un elemento di A. Intuitivamente, si può pensareall'evento come a un'affermazione significativa relativa all'esperimento.

Lo stesso spazio campionario S è un evento; per definizione si verifica sempre.All'estremo opposto, anche l'insieme vuoto Ø è un evento; per definizione, non si verificamai. Più in generale, se A e B sono eventi dell'esperimento e A è sottinsieme di B, allorail verificarsi di A implica il verificarsi di B.

Insiemi prodotto

Di solito l'esito di un esperimento consiste in una o più misurazioni e pertanto lo spaziocampionario è formato da tutte le possibili sequenze di misurazioni. Abbiamo pertantobisogno di una notazione appropriata per costruire insiemi di sequenze.

Supponiamo in primo luogo di avere n insiemi S1, S2, ..., Sn. Il prodotto Cartesiano (cheprende il nome da René Descartes) di S1, S2, ..., Sn indicato

S1 × S2 × ··· × Sn

è l'insieme di tutte le sequenze (ordinate) (s1, s2 , ..., sn) dove si è un elemento di Si perogni i. Ricorda che due sequenze ordinate solo uguali se e solo se i loro elementicorrispondenti sono uguali:

(s1, s2 , ..., sn) = (t1, t2 , ..., tn) se e solo se si = ti per i = 1, 2, ....

Se abbiamo n esperimenti con spazi campionari S1, S2, ..., Sn, allora S1 × S2 × ··· × Sn è lospazio campionario naturale per l'esperimento composto che consiste nell'eseguire gli nesperimenti in sequenza. Se Si = S per ogni i, allora l'insieme prodotto può essere scrittoin forma compatta come

Sn = S × S × ··· × S (n fattori).

Quindi, se abbiamo un esperimento semplice con spazio campionario S, allora Sn è lospazio campionario naturale per l'esperimento composto che consiste nel replicare n voltel'esperimento semplice. In particolare, R indicherà l'insieme di numeri reali tali che Rn èun spazio Euclideo a n dimensioni. In molti casi, lo spazio campionario di un esperimentocasuale, e quindi gli eventi dell'esperimento, sono sottinsiemi di Rn per un dato n.

Supponiamo ora di avere una collezione infinita di insiemi S1, S2, ..., il prodottoCartesiano di S1, S2, ..., indicato con

S1 × S2 × ···

Insiemi ed eventi

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob2.html (2 di 11) [22/11/2001 17.47.59]

Page 145: Laboratorio virtuale di probabilità e statistica

è l'insieme di tutte le sequenze ordinate (s1, s2 , ...,) dove si è un elemento di Si per ogni i.Di nuovo, sue sequenze ordinate sono uguali se e solo se i loro elementi corrispondentisono uguali. Se abbiamo una sequenza infinita di esperimenti con spazi campionari S1, S2,..., allora S1 × S2 × ··· è o spazio campionario naturale per l'esperimento composto checonsiste nell'effettuare gli esperimenti dati in sequenza. In particolare, lo spaziocampionario dell'esperimento composto che consiste in infinite replicazioni di unesperimento semplice è S × S × ···. Questo è un caso particolare fondamentale, perché lateoria della probabilità è basata sull'idea di replicare un dato esperimento.

Operazioni sugli insiemi

Siamo ora pronti per richiamare le operazioni fondamentali della teoria degli insiemi. Perun dato esperimento casuale, tali operazioni possono essere utilizzate per costruire nuovieventi a partire da eventi dati. Per le seguenti definizioni, supponiamo che A e B sianosottinsiemi dell'insieme universo, che indicheremo con S.

L'unione di A e B è l'insieme ottenuto combinando gli elementi di A e di B.

A B = {s S: s A o s B}.

Se A e B sono eventi di un esperimento con spazio campionario S, allora l'unione di A e Bè l'evento che si verifica se e solo se A si verifica o B si verifica.

L'intersezione di A e B è l'insieme di elementi comuni sia ad A che a B:

A B = {s S: s A e s B}.

Se A e B sono eventi di un esperimento con spazio campionario S, allora l'intersezione diA e B è l'evento che si verifica se e solo se A si verifica e B si verifica. Se l'intersezionedegli insiemi A e B è vuoto, allora A e B si dicono disgiunti:

A B = Ø.

Se A e B sono disgiunti in un esperimento, allora sono incompatibili; non possonoverificarsi entrambi contemporaneamente.

Il complementare di A è l'insieme degli elementi che non appartengono ad A ed è indicatocon Ac:

Ac = {s S: s A}.

Se A è un evento di un esperimento con spazio campionario S, allora il complementare diA è l'evento che si verifica se e solo se A non si verifica.

2. Le operazioni sugli insiemi si rappresentano spesso con piccolo grafici schematicinoti come diarammi di Venn, che prendono nome da John Venn. Nell'applet diagrammadi Venn, seleziona ciascuna delle seguenti opzioni e osserva l'area ombreggiata deldiagramma.

A1.

Insiemi ed eventi

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob2.html (3 di 11) [22/11/2001 17.47.59]

Page 146: Laboratorio virtuale di probabilità e statistica

B2.

Ac3.

Bc4.

A B5.

A B6.

Regole fondamentali

Nei seguenti problemi, A, B, e C sono sottinsiemi dell'insieme universo S.

3. Prova che A B A A B

4. Prova le leggi commutative:

A B = B A1.

A B = B A2.

5. Prova le leggi associative:

A (B C) = (A B) C1.

A (B C) = (A B) C2.

6. Prova le leggi distributive:

A (B C) = (A B) (A C)1.

A (B C) = (A B) (A C)2.

7. Prova le leggi di DeMorgan (che prendono nome da Agustus DeMorgan):

(A B)c = Ac Bc.1.

(A B)c = Ac Bc.2.

8. Prova che B Ac è l'evento che si verifica se e solo se B si verifica, mentre A no.

Quando A B, B Ac si scrive a volte come B - A. Quindi, S - A è la stessa cosa diAc.

9. Prova che (A Bc) (B Ac) è l'evento che si verifica se e solo se uno, manon entrambi gli eventi si verificano. Questo evento è detto differenza simmetrica ecorrisponde all'exclusive or.

10. Mostra che (A B) (Ac Bc) è l'evento che si verifica se e solo se entrambigli eventi si verificano o se nessuno dei due si verifica.

11. Prova che, in generale, a partire da due eventi dati A e B, si possono costruire 16eventi distinti.

Insiemi ed eventi

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob2.html (4 di 11) [22/11/2001 17.47.59]

Page 147: Laboratorio virtuale di probabilità e statistica

12. Nell'applet diagramma di Venn, osserva il diagramma di ciasuno dei 16 eventi chesi possono costruire a partire da A e B. Osserva, in particolare, il diagramma degli eventidegli esercizi 8, 9 e 10.

Esercizi numerici

13. Considera l'esperimento consistente nel lanciare due volte un dado e registrare idue punteggi. Sia A l'evento in cui il punteggio del primo dado è 1 e B l'evento in cui lasomma dei punteggi è 7.

Definisci matematicamente lo spazio campionario S.1.

Indica A come sottinsieme di S.2.

Indica B come sottinsieme di S.3.

Indica A B come sottinsieme di S.4.

Indica A B come sottinsieme di S.5.

Indica Ac Bc come sottinsieme di S.6.

14. Nell'esperimento dei dadi, seleziona i dadi equilibrati e poni n = 2. Simula 100replicazioni e conta il numero di volte in cui ciascun evento dell'esercizio precedente siverifica.

15. Considera l'esperimento che consiste nell'estrarre una carta da un mazzo ordinario.Il risultato si registra riportando la denominazione e il seme della carta estratta. Sia Ql'evento in cui la carta è una regina e H l'evento in cui la carta è di cuori.

Definisci matematicamente lo spazio campionario S.1.

Indica Q come sottinsieme di S.2.

Indica H come sottinsieme di S.3.

Indica Q H come sottinsieme di S.4.

Indica Q H come sottinsieme di S.5.

Indica Q Hc come sottinsieme di S.6.

16. Nell'esperimento delle carte, poni n = 1. Simula 100 replicazioni e conta il numerodi volte in cui ciascun evento dell'esercizio precedente si verifica.

17. Ricorda che l'esperimento della moneta di Buffon consiste nel lanciare una moneta

di raggio r 1/2 su un pavimento coperto da mattonelle quadrate di lato 1. Si registrano lecoordinate del centro della moneta, relativamente ad assi che passano attraverso il centrodel quadrato e paralleli ai lati. Sia A l'evento in cui la moneta non tocca i lati del quadrato

Definisci matematicamente lo spazio campionario S.1.

Indica A come sottinsieme di S.2.

Indica Ac come sottinsieme di S.3.

Insiemi ed eventi

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob2.html (5 di 11) [22/11/2001 17.47.59]

Page 148: Laboratorio virtuale di probabilità e statistica

18. Nell'esperimento della moneta di Buffon, poni r = 1/4. Simula 100 replicazioni econta il numero di volte in cui l'evento A dell'esercizio precedente si verifica.

19. Un esperimento consiste nel lanciare un paio di dadi finché la somma dei punteggiè 5 o 7. Registra il numero di lanci. Trova lo spazio campionario di questo esperimento.

20. Un esperimento consiste nel lanciare un paio di dadi finché la somma dei punteggiè 5 o 7. Registra il punteggio finale dei dadi. Sia A l'evento in cui la somma è 5 inveceche 7.

Definisci matematicamente lo spazio campionario S.1.

Indica A come sottinsieme di S.2.

21. L'esperimento dado-moneta consiste nel lanciare un dado e poi lanciare unamoneta un numero di volte indicato dal dado. Registra la sequenza degli esiti del lanciodella moneta. Sia A l'evento in cui si hanno esattamente due teste

Definisci matematicamente lo spazio campionario S.1.

Indica A come sottinsieme di S.2.

22. Simula l'esperimento dado-moneta, con le impostazioni predefinite, 100 volte.Conta il numero di volte in cui si verifica A dell'esercizio precedente.

23. Nell'esperimento moneta-dado, abbiamo una moneta e due dadi, uno rosso e unoverde. Per prima cosa, lancia la moneta; se il risultato è testa lancia il dado rosso, seinvece il risultato è croce, lancia il dado verde. Registra l'esito della moneta e il risultatodel dado. Sia A l'evento in cui il punteggio dei dadi è almeno 4.

Definisci matematicamente lo spazio campionario S.1.

Indica A come sottinsieme di S.2.

24. Replica l'esperimento moneta-dado, con le impostazioni predefinite, per 100 volte.Conta il numero di volte in cui l'evento A dell'esercizio precedente si verifica.

25. In un certo collegio, sono candidati alla camera dei deputati i signori 1, 2 e 3. Unconsulente politico registra, età (in anni), sesso e candidato preferito, in un campione di100 elettori. Assumi che un elettore debba avere almeno 18 anni. Definisci lo spaziocampionario dell'esperimento.

26. Nell'esperimento di base della cicala, si cattura una cicala nella regione centraledel Tennessee e si registrano le seguenti misurazioni: peso corporeo (in grammi),lunghezza e larghezza delle ali e lunghezza del corpo (in millimetri), sesso e specie. I datisulla cicala riguardano gli esiti di 104 replicazioni di questo esperimento.

Definisci lo spazio campionario dell'esperimento semplice.1.

Sia F l'evento in cui la cicala è femmina. Indica F come sottinsieme dello spaziocampionario.

2.

Insiemi ed eventi

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob2.html (6 di 11) [22/11/2001 17.47.59]

Page 149: Laboratorio virtuale di probabilità e statistica

Determina se F si verifica per ogni cicala dei dati.3.

Riporta lo spazio campionario per l'esperimento composto che consiste in 104replicazioni dell'esperimento semplice.

4.

27. Nell'esperimento semplice M&Ms, si acquista un sacchetto di M&Ms (didimensione specificata) e si registrano i seguenti dati: il numero di pastiglie rosse, verdi,blu, gialle, arancio e marroni e il peso netto (in grammi). I dati M&M riportano il risultatodi 30 replicazioni dell'esperimento.

Definisci lo spazio campionario dell'esperimento semplice.1.

Sia A l'evento in cui il sacchetto contiene almeno 57 pastiglie. Indica A comesottinsieme dello spazio campionario.

2.

Determina se A si verifica per ogni sacchetto dei dati.3.

Riporta lo spazio campionario per l'esperimento composto che consiste in 30replicazioni dell'esperimento semplice.

4.

28. Un sistema è formato da 5 componenti, indicate con 1, 2, 3, 4 e 5. Ognicomponente è funzionante (indicato con 1) o difettoso (indicato con 0). Si registra lasequenza di stati dei componenti. Sia A l'evento in cui la maggior parte dei componentifunziona.

Definisci matematicamente lo spazio campionario S.1.

Indica A come sottinsieme di S.2.

29. Due componenti, indicate con 1 e 2, sono messe in funzione finché non siguastano; si registra la sequenza dei tempi di guasto (in ore). Sia A l'evento in cui lacomponente 1 dura più di 1000 ore e sia B l'evento in cui la componente 1 dura più dellacomponente 2.

Definisci matematicamente lo spazio campionario S.1.

Indica A come sottinsieme di S.2.

Indica B come sottinsieme di S.3.

Indica A B come sottinsieme di S.4.

Indica A B come sottinsieme di S.5.

Indica A Bc come sottinsieme di S.6.

Operazioni generalizzate

Le operazioni di unione e intersezione possono essere facilmente generalizzate a unacollezione finita o addirittura infinita di insiemi. Supponiamo che Aj sia un sottinsiemedell'insieme universo S per ogni j appartenente a un insieme non vuoto di indici J.

L'unione degli insiemi Aj, j J è l'insieme ottenuto combinando gli elementi degliinsiemi dati:

Insiemi ed eventi

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob2.html (7 di 11) [22/11/2001 17.48.00]

Page 150: Laboratorio virtuale di probabilità e statistica

j Aj = {s S: s Aj per qualche j}.

Se Aj, j J sono eventi di un esperimento con spazio campionario S, allora l'unione èl'evento che si verifica se e solo se almeno uno degli eventi dati si verifica.

L'intersezione degli insiemi Aj, j J è l'insieme di elementi comuni a tutti gli insiemidati:

j Aj = {s S: s Aj per ogni j}.

Se Aj, j J sono eventi di un esperimento con spazio campionario S, alloral'interesezione è l'evento che si verifica se e solo se ogni evento della collezione si èverificato.

Gli insiemi Aj, j J sono mutualmente disgiunti se l'intersezione di due qualsiasi diquesti insiemi è vuota:

Ai Aj = Ø per i j.

Se Aj, j J sono eventi di un esperimento casuale, ciò significa che sono mutualmenteincompatibili; al più uno di tali eventi può verificarsi ad ogni replicazionedell'esperimento.

Gli insiemi Aj, j J costituiscono una partizione dell'insieme B se Aj, j J sonomutualmente disgiunti e

j Aj = B.

Regole fondamentali

Nei seguenti problemi, Aj, j J e B sono sottinsiemi dell'insieme universo S.

30. Prova le leggi distributive generalizzate:

[ j Aj] B = j (Aj B)1.

[ j Aj] B = j (Aj B)2.

31. Prova le leggi di DeMorgan generalizzate:

[ j Aj] c = j Ajc.1.

[ j Aj]c = Ajc .2.

Insiemi ed eventi

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob2.html (8 di 11) [22/11/2001 17.48.00]

Page 151: Laboratorio virtuale di probabilità e statistica

32. Supponi che gli insiemi Aj, j J siano una partizione di S. Prova che, per ogni

sottinsieme B, gli insiemi Aj B, j J, sono una partizione di B.

Regole per gli insiemi prodotto

Vediamo ora che relazione sussiste tra le operazioni sugli insiemi e il prodotto Cartesiano.Supponiamo che S1 e S2 siano insiemi e che A1, B1 siano sottinsiemi di S1 mentre A2, B2sono sottinsiemi di S2. Gli insiemi negli esercizi che seguono sono sottinsiemi di S1 × S2.

33. Dimostra che (A1 × A2) (B1 × B2) = (A1 B1) × (A2 B2).

34. Prova che

(A1 × A2) (B1 × B2) (A1 B1) × (A2 B2),1.

In (a), l'uguaglianza non vale in generale.2.

(A1 × A2) (B1 × B2) può essere scritto come unione disgiunta di insiemiprodotto.

3.

35. Mostra che

(A1c × A2

c) (A1 × A2)c.1.

In (a), l'uguaglianza non vale in generale.2.

(A1 × A2)c può essere scritto come unione disgiunta di insiemi prodotto.3.

Queste ultime sezioni coprono argomenti più avanzati e possono essere omesse a unaprima lettura.

Sigma Algebre

Nella teoria della probabilità, così come in molte altre teorie matematiche, è spessoimpossibile includere nella teoria tutti i sottinsiemi dell'insieme universo S. Esistono adesempio molti esempi strani e patologici di sottinsiemi di R che non hanno alcun ruoloparticolare nella matematica applicata. In ogni caso, desideriamo che la nostra collezionedi sottinsiemi sia chiusa rispetto alle operazioni introdotte sopra. In particolare, si ha disolito bisogno che valga la seguente proprietà:

Ogni insieme che può essere costruito a partire da un numero di insiemiammissibili usando le operazioni su insiemi dev'essere egli stessoammissibile.

Ciò ci conduce a una definizione cruciale. Supponiamo che A sia una collezione disottinsiemi di S. Allora A si dice sigma algebra se

S A.1.

Se A A allora Ac A.2.

Insiemi ed eventi

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob2.html (9 di 11) [22/11/2001 17.48.00]

Page 152: Laboratorio virtuale di probabilità e statistica

If Aj A per ogni j appartenente a un insieme numerabile di indici J, allora j

Aj A.

3.

36. Prova che Ø A.

37. Dimostra che, se Aj A per ogni j appartenente a un insieme numerabile di indici

J, allora j Aj A. Suggerimento: Usa le leggi di DeMorgan.

In ogni esperimento casuale, assumiamo che la collezione di eventi formi una sigmaalgebra.

Costruzioni generali

Sia {0, 1}S la collezione di tutti i sottinsiemi di S, detta insieme delle parti di S.Chiaramente, {0, 1}S è la più grande sigma algebra di S, e come abbiamo visto inprecedenza, è spesso troppo grande per essere utilizzabile. La notazione insolita cheuseremo sarà spiegata nel prossimo paragrafo su funzioni e variabili casuali.

All'estremo opposto, la sigma algebra più piccola di S è indicata dal seguente esercizio.

38. Dimostra che {Ø, S} è una sigma algebra.

In molti casi, vogliamo costruire una sigma algebra che contenga alcuni insiemifondamentali. L'esercizio seguente mostra come fare.

39. Supponi che Aj sia una sigma algebra di sottinsiemi di S per ogni j appartenente aun insieme numerabile di indici J. Dimostra che l'intersezione A riportata qui sotto èanch'essa una sigma algebra di sottinsiemi di S.

A = j Aj.

Supponi ora che B sia una collezione di sottinsiemi di S. Interpreta gli insiemi di B comeinsiemi semplici; ma in generale B non sarà una sigma algebra. La sigma algebra generatada B è l'interesezione di tutte le sigma algebre che contengono B, e, per l'esercizioprecedente, è di fatto una sigma algebra:

sigma(B) = {A: A è una sigma algebra di sottinsiemi di S e B A}.

40. Mostra che sigma(B) è la sigma lagebra più piccola che contiene B:

B sigma(B)1.

Se A è una sigma algebra di sottinsiemi di S e B A allora sigma(B) A.2.

41. Supponi che A sia un sottinsieme di S. Mostra che

Insiemi ed eventi

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob2.html (10 di 11) [22/11/2001 17.48.00]

Page 153: Laboratorio virtuale di probabilità e statistica

sigma({A}) = {Ø, A, Ac, S}.

42. Supponi che A e B siano sottinsiemi di S. Trova i 16 (in generale distinti) insiemidi sigma({A, B}).

43. Supponi che A1, A2, ..., An siano sottinsiemi di S. Prova che esistono 2^(2n) (ingenerale distinti) insiemi nella sigma algebra generata dagli insiemi dati.

Casi particolari

Parleremo adesso delle sigma algebre naturali che useremo per vari spazi campionari ealtri insiemi nel corso di questo progetto.

Se S è numerabile, usiamo l'insieme delle parti {0, 1}S come sigma algebra.Quindi, tutti gli insiemi sono ammissibili.

Per R, l'insieme dei numeri reali, usiamo la sigma algebra generata dalla collezionedi tutti gli intervalli. Questa è detta a volte sigma algebra di Borel, in onore di EmilBorel.

Come notato in precedenza, gli insiemi prodotto hanno un ruolo chiave nella teoria dellaprobabilità. Supponiamo quindi che S1, S2, ..., Sn siano insiemi e che Ai sia una sigmaalgebra di sottinsiemi di Si per ogni i. Per l'insieme prodotto

S = S1 × S2 × ··· × Sn,

usiamo la sigma algebra A generata dalla collezione di tutti gli insiemi prodotto dellaforma

A1 × A2 × ··· × An dove Ai Ai per ogni i.

Questa idea si può estendere a un prodotto infinito. Supponiamo che S1, S2, ... sianoinsiemi e che Ai sia una sigma algebra di sottinsiemi di Si per ogni i. Per l'insiemeprodotto

S = S1 × S2 × ··· ,

usiamo la sigma algebra A generata dalla collezione di tutti gli insiemi prodotto dellaforma

A1 × A2 × ··· × An × Sn+1 × Sn+2 × ··· dove n è un intero positivo e Ai Ai per ogni i.

Combinando la costruzione del prodotto con le nostre osservazioni precedenti su R, notache per Rn, utilizziamo la sigma algebra generata dalla collezione di tutti i prodotti degliintervalli. Questa è la sigma algera di Borel per Rn.

Laboratorio virtuale > Spazi di Probabilità > 1 [2] 3 4 5 6 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Insiemi ed eventi

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob2.html (11 di 11) [22/11/2001 17.48.00]

Page 154: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Spazi di Probabilità > 1 2 3 [4] 5 6 7 8

4. Misura di probabilità

Supponiamo di avere un esperimento casuale con spazio campionario S. La probabilità diun evento è un misura di quanto è plausibile che l'evento si verifichi nell'esecuzionedell'esperimento.

Assiomi

Matematicamente, una misura di probabilità (o distribuzione) P per un esperimentocasuale è una funzione a valori reali definita sulla collezione di eventi che soddisfa iseguenti assiomi:

P(A) 0 per ogni evento A.1.

P(S) = 12.

P[ j in J Aj] = j in J P(Aj) se {Aj: j J} è una collezione numerabile di eventia due a due disgiunti.

3.

Il terzo assioma è detto della additività numerabile, e afferma che la probabilitàdell'unione di una collezione finita o infinita ma numerabile di eventi disgiunti è lasomma delle corrispondenti probabilità. Gli assiomi sono detti anche assiomi diKolmogorov, in onore di Andrey Kolmogorov.

Gli assiomi 1 e 2 rappresentano unicamente una convenzione; scegliamo di misurare laprobabilità di un evento con un numero tra 0 e 1 (invece che, ad esempio, con un numerotra -5 e 7). L'assioma 3, invece, è fondamentale e inevitabile. È necessario per la teoriadella probabilità per la stessa ragione per cui è necessario per le altre misure di"dimensione" di un insieme, come

cardinalità per insiemi finiti, ●

lunghezza per sottinsiemi di R, ●

area per sottinsiemi di R2,●

volume per sottinsiemi di R3.●

D'altra parte, l'additività non numerabile (l'estensione dell'assioma 3 a un insieme nonnumerabile di indici J) è irragionevole per la probabilità così come per le altre misure. Peresempio, un intervallo di lunghezza positiva di R è unione di infiniti punti, ciascuno dilunghezza 0.

Abbiamo ora tre ingredienti essenziale per modellare un esperimento casuale:

Lo spazio campionario S, 1.

La sigma algebra degli eventi A,2.

La misura di probabilità P. 3.

Misura di probabilità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob4.html (1 di 10) [22/11/2001 17.48.14]

Page 155: Laboratorio virtuale di probabilità e statistica

Insieme, questi definiscono uno spazio di probabilità (S, A, P).

La legge dei grandi numeri

Intuitivamente, la probabilità di un evento dovrebbe misurare la frequenza relativadell'evento a lungo termine. Specificamente, supponiamo di ripetere indefinitamentel'esperimento (osserva che ciò costituisce un nuovo esperimento composto). Per un eventoA dell'esperimento base, sia Nn(A) il numero di volte che A si è verificato (la frequenza diA) nelle prime n replicazioni (nota che si tratta di una variabile casuale dell'esperimentocomposto). Quindi,

Pn(A) = Nn(A) / n

è la frequenza relativa di A nelle prime n replicazioni. Se abbiamo scelto la misura diprobabilità corretta per l'esperimento, allora in un certo senso ci aspettiamo che lafrequenza relativa di ciascun evento converga alla probabilità dell'evento stesso:

Pn(A) P(A) per n .

La formalizzazione di questa intuizione è la legge dei grandi numeri o legge della media,uno dei teoremi più importanti della probabilità. Per sottolineare questo punto, osserviamoche in generale esisteranno molte possibili misure di probabilità per un esperimento chesoddisfano gli assiomi. Però, solo la vera misura di probabilità soddisferà la legge deigrandi numeri.

Segue che, se abbiamo dati da n replicazioni dell'esperimento, la frequenza relativaosservata Pn(A) può essere utilizzata come approssimazione di P(A); taleapprossimazione è detta probabilità empirica di A.

1. Dimostra che Pn soddisfa gli assiomi di Kolmogorov (sulla base dei dati di nreplicazioni dell'esperimento)

La distribuzione di una variabile casuale

Supponiamo che X sia una variabile casuale dell'esperimento, che assume valori in uninsieme T.

2. Mostra che P(X B) come funzione di B T, definisce una misura di probabilitàsu T. Suggerimento: Ricorda che l'immagine inversa preserva tutte le operazioni sugliinsiemi.

La misura di probabilità dell'esercizio precedente è detta distribuzione di probabilità di X.Pertanto, ogni variabile casuale X per un esperimento definisce un nuovo spazio diprobabilità:

Un insieme di esiti T (i possibili valori di X).1.

Una collezione di eventi (i sottinsiemi di T).2.

Una misura di probabilità su questi eventi (la distribuzione di probabilità di X).3.

Misura di probabilità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob4.html (2 di 10) [22/11/2001 17.48.14]

Page 156: Laboratorio virtuale di probabilità e statistica

Ricordiamo inoltre che l'esito stesso di un esperimento può essere visto come unavariabile casuale. In particolare, se assumiamo che X sia la funzione identità su S, alloraX è una variabile casuale e

P(X A) = P(A).

Quindi, ogni misura di probabilità può essere vista come distribuzione di una variabilecasuale.

Misure

Come facciamo a costruire misure di probabilità? Come abbiamo già brevemente notatopoc'anzi, esistono altre misure relative alla "dimensione" degli insiemi; in molti casi essepossono essere convertite in misure di probabilità.

In primo luogo, una misura (non negativa) m su S è una funzione dei sottinsiemi(misurabili) di S che soddisfa gli assiomi 1 e 3 introdotti poc'anzi. In generale, m(A) puòessere infinito per un sottinsieme A. Comunque, se m(S) è positivo e finito, m può essereconvertita in misura di probabilità.

3. Mostra che, se m è misura su S con m(S) finito e positivo, allora P è una misura diprobabilità su S.

P(A) = m(A) / m(S) per A S.

Nel contesto dell'esercizio 3, m(S) è detta costante di normalizzazione. Nelle prossimedue sezioni, consideriamo alcuni importanti casi particolari.

Distribuzioni discrete

Supponiamo che S sia un insieme finito e non vuoto. Chiaramente, la misura di conteggio# è una misura finita su S:

#(A) = il numero di elementi di A per A S.

La corrispondente misura di probabilità è detta distribuzione uniforme discreta su S, ed èparticolarmente importante negli esperimenti di campionamento e di calcolocombinatorio:

P(A) = #(A) / #(S) per A S.

Possiamo presentare un metodo di costruzione più generale per spazi campionarinumerabili che può essere utilizzato per definire varie misure di probabilità.

4. Supponiamo che S sia non vuoto e numerabile e che g sia una funzione non negativaa valori reali definita su S. Mostra che m definito come segue è una misura su S:

m(A) = x in A g(x) per A S.

Pertanto, se m(S) è finito e positivo, allora P(A) = m(A) / m(S) definisce una misura di

Misura di probabilità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob4.html (3 di 10) [22/11/2001 17.48.14]

Page 157: Laboratorio virtuale di probabilità e statistica

probabilità per l'esercizio 3. Distribuzioni di questo tipo si dicono discrete. Ledistribuzioni discrete sono studiate in dettaglio nel capitolo sulle distribuzioni.

5. Nel contesto dell'esercizio precedente, prova che, se S è finito e g è una funzionecostante, allora la corrispondente misura di probabilità P è la distribuzione uniformediscreta su S.

Distribuzioni continue

Si definisce misura n-dimensionale su Rn (o misura di Lebesgue, in onore di HenriLebesgue) come

mn(A) = A 1dx per A Rn.

Nota che se n > 1, l'integrale riportato è multiplo; x = (x1, x2, ..., xn) e dx = dx1dx2...dxn.L'assioma di additività numerabile vale per una proprietà fondamentale degli integrali chenon dimostreremo. In particolare, richiamiamo dall'analisi che

m1(A) è la lunghezza di A per A R.1.

m2(A) è l'area di A per A R2.2.

m3(A) è il volume di A per A R3.3.

Ora, se S è un sottinsieme di Rn con mn(S) positivi e finiti, allora

P(A) = mn(A) / mn(S)

è una misura di probabilità su S per l'esercizio 2, detta distribuzione uniforme continua suS.

Possiamo generalizzare questo metodo per produrre molte altre distribuzioni. Supponiamoche g sia una funzione non negativa a valori definita su S. Definiamo

m(A) = A g(x) dx per A S.

Allora m è una misura su S. Quindi, se m(S) è finito e positivo, allora P(A) = m(A) / m(S)definisce una misura di probabilità come nell'esercizio 2. Distribuzioni di questo tipo sidicono continue. Le distribuzioni continue sono studiate in dettaglio nel capitolo sulledistribuzioni.

È importante notare, di nuovo, che, al contrario di molti altri rami della matematica, glispazi a poche dimensione (n = 1, 2, 3) non hanno un ruolo particolare, a parte quellodidattico. Per esempio, sui dati sulla cicala, alcune delle variabili registrate sono peso elunghezza corporei e lunghezza e larghezza delle ali. Un modello probabilistico per questevariabili definirebbe una distribuzione su un sottinsieme di R4.

Misura di probabilità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob4.html (4 di 10) [22/11/2001 17.48.14]

Page 158: Laboratorio virtuale di probabilità e statistica

Regole fondamentali della probabilità

Supponiamo di avere un esperimento casuale con spazio campionario S e misura diprobabilità P. Nei seguenti esercizi, A e B sono eventi.

6. Dimostra che P(Ac) = 1 - P(A).

7. Dimostra che P(Ø) = 0.

8. Mostra che P(B Ac) = P(B) - P(A B).

9. Dimostra che se A B allora P(B Ac) = P(B) - P(A).

Ricorda che B Ac è scritto a volte B - A quando A B. Con questa notazione, ilrisultato dell'esercizio precedente ha la forma, più attraente

P(B - A) = P(B) - P(A).

10. Dimostra che se A B allora P(A) P(B).

11. Supponi che {Aj: j J} sia una collezione numerabile di eventi. Prova ladisuguaglianza di Boole (che prende il nome da George Boole):

P[ j Aj] j P(Aj).

Suggerimento: Sia J = {1, 2, ...} e definiamo B1 = A1, B2 = A2 A1c, B3 = A3 A1

c

A2c, ... Prova che B1, B2, ... sono a due a due disgiunti e hanno la stessa unione di A1,

A2, .... Usa l'assioma di additività della probabilità e il risultato dell'esercizio 6.

12. Supponi che {Aj: j J} sia una collezione numerabile di eventi con P(Aj) = 0 perogni j appartennete a J. Usa la disuguaglianza di Boole per mostrare che

P[ j Aj] = 0.

13. Supponi che {Aj: j J} sia una collezione numerabile di eventi. Prova ladisuguaglianza di Bonferroni (che prende il nome da Carlo Bonferroni):

P[ j Aj] 1 - j [1 - P(Aj)].

Suggerimento: Applica la disuguaglianza di Boole a {Ajc: j J}

14. Supponi che {Aj: j J} sia una collezione numerabile di eventi con P(Aj) = 1 perogni j appartenente a J. Usa la disuguaglianza di Bonferroni per mostrare che

Misura di probabilità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob4.html (5 di 10) [22/11/2001 17.48.14]

Page 159: Laboratorio virtuale di probabilità e statistica

P[ j Aj] = 1.

15. Supponi che A e B siano eventi di un esperimento con P(A) = 1. Dimostra che P(A

B) = P(B)

16. Prova la legge delle probabilità totali: se {Aj: j J} sia una collezione numerabiledi eventi che partiziona lo spazio campionario S, allora per ogni evento B,

P(B) = j P(Aj B).

Le formule di inclusione-esclusione

Le formule di inclusione-esclusione costituiscono un metodo per calcolare la probabilitàdi un'unione di eventi in termini delle probabilità di varie intersezioni degli stessi.

17. Mostra che, se A e B sono eventi allora

P(A B) = P(A) + P(B) - P(A B).

18. Mostra che, se A, B, e C sono eventi, allora

P(A B C) = P(A) + P(B) + P(C) - P(A B) - P(A C) - P(B C) + P(A

B C)

Gli ultimi due esercizi possono essere generalizzati all'unione di n eventi Ai, i = 1, 2, ...n.Questa generalizzazione è deta formula di inclusione-esclusione. Per semplificarne laformulazione, sia N l'insieme di indici {1, 2, ..., n}. Definiamo

pJ = P[ j in J Aj] per J N.1.

qk = {J: #(J) = k} pJ per k N2.

19. Prova che P[ i = 1, ..., n Ai] = k = 1, ..., n (-1)k - 1 qk.

La disuguaglianza di Bonferroni generalizzata afferma che se la sommatoria di destra ètroncata dopo k termini (k < n), allora la somma troncata è un limite superiore per laprobabilità dell'unione se k è dispari (per cui l'ultimo termine ha segno positivo) e unlimite inferiore se k è pari (e l'ultimo termine ha segno negativo).

Se torni inditro e riguardi le dimostrazioni degli esercizi 6-19, vedrai che valgono per ognimisura finita m, non solo per la probabilità. La sola differenza è che il numero 1 èsostituto da m(S). In particolare, la regola di inclusione-esclusione è importante tanto nelcalcolo combinatorio (lo studio delle misure di conteggio) quanto in probabilità.

Misura di probabilità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob4.html (6 di 10) [22/11/2001 17.48.14]

Page 160: Laboratorio virtuale di probabilità e statistica

Esercizi numerici

20. Supponiamo di lanciare 2 dadi equilibrati e di registrare la sequenza dei punteggi.Sia A l'evento in cui il punteggio del primo dado è minore di 3 e B l'evento in cui lasomma dei punteggi dei dadi è 6.

Definisci formalmente lo spazio campionario S.1.

Poiché i dadi sono equilibrati, spiega perché la distribuzione uniforme su S èadeguata.

2.

Trova P(A).3.

Trova P(B).4.

Trova P(A B).5.

Trova P(A B).6.

Trova P(B Ac ).7.

21. Nell'esperimento dei dadi, poni n = 2. Simula 100 replicazioni e calcola laprobabilità empirica di ciascun evento dell'esercizio precedente.

22. Considera l'esperimento consistente nell'estrarre 2 carte da un mazzo standard eregistrare la seuqenza. Per i = 1, 2, sia Hi l'evento in cui la carte i è di cuori.

Definisci formalmente lo spazio campionario S.1.

Spiega perché, se il mazzo è ben mischiato, la distribuzione uniforme su S èappropriata.

2.

Trova P(H1)3.

Trova P(H1 H2)4.

Trova P(H1c H2)5.

Trova P(H2)6.

Trova P(H1 H2).7.

23. Nell'esperimento delle carte, poni n = 2. Simula 100 replicazioni e calcola laprobabilità empirica di ciascun evento dell'esercizio precedente.

24. Ricorda che l'esperimento della moneta di Buffon consiste nel lanciare

"casualmente" una moneta di raggio r 1/2 su un pavimento coperto da mattonellequadrate di lato 1. Si registrano le coordinate (X, Y) del centro della moneta,relativamente ad assi che passano attraverso il centro del quadrato e paralleli ai lati. Sia Al'evento in cui la moneta non tocca i lati del quadrato.

Definisci formalmente lo spazio campionario S.1.

Spiega perché la distribuzione uniforme su S è appropriata.2.

Trova P(A).3.

Misura di probabilità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob4.html (7 di 10) [22/11/2001 17.48.14]

Page 161: Laboratorio virtuale di probabilità e statistica

Trova P(Ac).4.

25. Nell'esperimento della moneta di Buffon, poni r = 0.2. Simula 100 replicazioni ecalcola la probabilità empirica di ciascun evento dell'esercizio precedente.

26. Supponi che A e B siano eventi di un esperimento con P(A) = 1 / 3, P(B) = 1 / 4,

P(A B) = 1 / 10. Esprimi ciascuno dei seguenti eventi nel linguaggio dell'esperimentoe trova la sua probabilità:

A Bc1.

A B2.

Ac Bc3.

Ac Bc4.

A Bc5.

27. Supponi che A, B, e C siano eventi di un esperimento con

P(A) = 0.3, P(B) = 0.2, P(C) = 0.4, P(A B) = 0.04,

P(A C) = 0.1, P(B C) = 0.1, P(A B C) = 0.01

Esprimi ciascuno dei seguenti eventi in notazione insiemistica e trova la sua probabilità:

Si verifica almeno uno dei tre eventi.1.

Nessuno dei tre eventi si verifica.2.

Si verifica esattamente uno dei tre eventi.3.

Si verificano esattamete due dei tre eventi.4.

28. Si lanciano ripetutamente due dadi equilibrati finché la somma dei punteggi è 5 o7. Si registra la sequenza di punteggi dell'ultimo lancio. Sia A l'evento in cui la somma è 5invece che 7.

Definisci formalmente lo spazio campionario S.1.

Spiega perché, siccome i dadi sono equilibrati, la distribuzione uniforme su S èappropriata.

2.

Trova P(A).3.

Le probabilità del tipo dell'ultimo esercizio sono utili nel gioco del craps.

29. Un esperimento consiste nel lanciare 3 monete equilibrate e registrare la sequenzadei punteggi. Sia A l'evento in cui la prima moneta è testa e B l'evento in cui si hannoesattamente due teste.

Definisci formalmente lo spazio campionario S.1.

Spiega perché, siccome le monete sono bilanciate, la distribuzione uniforme su S èappropriata.

2.

Misura di probabilità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob4.html (8 di 10) [22/11/2001 17.48.14]

Page 162: Laboratorio virtuale di probabilità e statistica

Trova P(A).3.

Trova P(B)4.

Trova P(A B)5.

Trova P(A B).6.

Trova P(Ac Bc).7.

Trova P(Ac Bc).8.

Trova P(A Bc).9.

30. Una scatola contiene 12 biglie: 5 sono rosse, 4 verdi e 3 blu. Si estraggono a casotre biglie, senza reinserimento.

Definisci uno spazio campionario per cui gli esiti sono equiprobabili.1.

Trova P(A) dove A è l'evento in cui le biglie estratte sono tutte dello stesso colore.2.

Trova P(B) dove B è l'evento in cui le biglie estratte sono tutte di colore diverso3.

31. Ripeti l'esercizio precedente nel caso in cui l'estrazione avvenga conreinserimento.

32. Sui dati M&M, sia R l'evento in cui un sacchetto ha almeno 10 pastiglie rosse, Tl'evento in cui un sacchetto ha almeno 57 pastiglie in totale, e W l'evento in cui unsacchetto pesa almeno 50 grammi. Trova le probabilità empiriche dei seguenti eventi:

R1.

T2.

W3.

R T4.

T Wc.5.

33. Sui dati della cicala, sia W l'evento in cui una cicala pesa almeno 0.20 grammi, Fl'evento in cui la cicala è femmina e T l'evento in cui la specie di cicala è la tredecula.Trova la probabilità empirica di

W1.

F2.

T3.

W F4.

F T W5.

Unicità ed estensione

Ricorda che la collezione di eventi di un esperimento formano una sigma algebra A. Inalcuni casi A è generata da una collezione più piccola di eventi di base B, ovvero

Misura di probabilità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob4.html (9 di 10) [22/11/2001 17.48.14]

Page 163: Laboratorio virtuale di probabilità e statistica

A = sigma(B).

Spesso si è interessati a conoscere le probabilità degli eventi di base che determinanocompletamente l'intera misura di probabilità. Questo si rivela vero se gli eventi di basesono chiusi rispetto all'intersezione. Più specificamente, supponiamo che, se B, C B

allora B C B (B è detto sistema pi). Se P1 e P2 sono misure di probabilità su A eP1(B) = P2(B) per B B allora P1(A) = P2(A) per ogni A A.

Per esempio, la sigma algebra standard (di Borel) su R è generata dalla collezione di tuttigli intervalli aperti di lunghezza finita, che è chiaramente chiusa rispetto all'intersezione.Pertanto, una misura di probabilità P su R è completamente determinata dai suoi valori suintervalli aperti finiti. In più, la sigma algebra su R è generata dalla collezione di intervallichiusi e infiniti della forma (- , x]. Quindi, una misura di probabilità P su R èdeterminata completamente dai suoi valori su questi intervalli.

Supponiamo ora di avere n insiemi S1, S2, ..., Sn con sigma algebre rispettivamente A1,A2, ..., An. Ricorda che l'insieme prodotto

S = S1 × S2 × ··· × Sn

è uno spazio campionario naturale per un esperimento formato da misurazioni multiple, oper un esperimento composto che consiste nell'effettuare n esperimenti semplici insequenza. Di solito, diamo a S la sigma algera A generata dalla collezione di tutti gliinsiemi prodotto della forma

A = A1 × A2 × ··· × An dove Ai Ai per ogni i.

Tale collezione di insiemi prodotto è chiusa rispetto all'intersezione, e quindi una misuradi probabilità su S è completamente determinata dai suoi valori su questi insiemi prodotto.

Generalizzando, supponiamo si avere una sequenza infinita di insiemi S1, S2, ... con sigmaalgebre rispettivamente A1, A2, ... . L'insieme prodotto

S = S1 × S2 × ···.

è uno spazio campionario naturale per un esperimento formato da un numero infinito dimisurazioni, o per un esperimento composto che consiste nell'eseguire una sequenzainfinita di esperimenti semplici. Di solito si dà a S la sigma algebra A generata dallacollezione degli insiemi prodotto della forma

A = A1 × A2 × ··· × An.× Sn+1 × Sn+2 × ··· dove n è un intero positivo e Ai Ai per ogni i.

Questa collezione di insiemi prodotto è chiusa rispetto all'intersezione, e quindi unamisura di probabilità su S è determinata completamente dai suoi valori su questi insiemiprodotto.

Laboratorio virtuale > Spazi di Probabilità > 1 2 3 [4] 5 6 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Misura di probabilità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob4.html (10 di 10) [22/11/2001 17.48.14]

Page 164: Laboratorio virtuale di probabilità e statistica

height="14">meta name="Author" content="Kyle Siegrist">

Laboratorio virtuale > Spazi di Probabilità > 1 2 [3] 4 5 6 7 8

3. Funzioni e variabili casuali

Funzioni

Supponi che S e T siano insiemi. Una funzione f da S a T è una regola che facorrisponedere a ciascun s appartenente a S un unico elemento f(s) appartenente a T. Piùprecisamente, ma anche più pedantemente, una funzione f può essere vista come unsottinsieme dell'insieme prodotto S × T con la proprietà per che ciascun elemento s di S,esiste un unico elemento (s, t) appartenente a f; si scrive pertanto

t = f(s).

L'insieme S è il dominio di f e l'insieme T è il codominio di f. Il supporto di f è l'insiemedei valori della funzione:

range(f) = {t T: t = f(s) per qualche s S}.

Se il supporto di f è T, allora si dice che f mappa S su T (invece che semplicemente in).Quindi, se f è su, allora per ogni t appartenente a T esiste s appartenente a S tale che f(s) =t. Infine, si dice che f è iniettiva se a elementi distinti del dominio corrispondono elementidistinti del codominio.

f(u) = f(v) implica u = v for u, v in S.

Gli insiemi S e T sono in corrispondenza biunivoca se esiste una funzione uno a uno f daS su T. In questo caso, possiamo definire l'inversa di f ome la funzione da T su S data da

f -1(t) = s dove s è l'unico elemento di S con f(s) = t.

Composizione

Supponi che g sia una funzione da R in S e f una funzione da S in T. La composizione di fcon g è la funzione da R in T definita da

f ° g(r) = f[g(r)] per r appartenente a R.

1. Prova che la composizione non è commutativa:

Trova due funzioni f e g per cui f ° g è definito ma g ° f non lo è.1.

Trova due funzioni f e g per cui f ° g e g ° f sono definite, ma le composizionihanno diversi domini e codomini.

2.

Trova due funzioni f e g per cui f ° g e g ° f sono definite, hanno lo stesso dominioe codominio, ma sono comunque diverse.

3.

2. Supponi che h sia una funzione da R in S, g una funzione da S in T, e f una funzione

Funzioni e variabili casuali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob3.html (1 di 8) [22/11/2001 17.48.28]

Page 165: Laboratorio virtuale di probabilità e statistica

da T in U. Mostra che la composizione è associativa:

f ° (g ° h) = (f ° g) ° h.

3. Supponi che f sia una funzione biiettiva da S su T. Mostra che f -1 ° f e f ° f -1 sonole funzioni identità su S e T, rispettivamente:

f -1 ° f(s) = s per s appartenente a S.1.

f ° f -1(t) = t per t appartenente a T.2.

4. Prova che una corrispondenza biunivoca definisce una relazione di equivalenza suinsiemi non vuoti:

S è equivalente a S (proprietà riflessiva).1.

Se S è equivalente a T allora T è equivalente a S (proprietà simmetrica).2.

Se R è equivalente a S e S è equivalente a T allora R è equivalente a T (proprietàtransitiva).

3.

Variabili casuali

Supponiamo di avere un esperimento casuale con spazio campionario S. Una funzione daS in un altro insieme T è detta variabile casuale (a valori in T). La probabilità ha le sueconvenzioni notazionali, spesso diverse da quelle degli altri rami della matematica. Inquesto caso, le variabili casuali si indicano di solito con lettere maiuscole dell'ultima partedell'alfabeto.

Intuitivamente, puoi immaginare una variabile casuale X come una misura di interesse nelcontesto dell'esperimento casuale. Una variabile casuale X è casuale nel senso che il suovalore dipende dall'esito dell'esperimento, il quale non può essere previsto con certezzaprima di effettuare l'esperimento stesso. Ogni volta che si effettua l'esperimento, siverifica un esito s appartenente a S e una data variabile casuale X assume il valore X(s).In generale vedremo che la notazione probabilistica omette il riferimento allo spaziocampionario.

Spesso, una variabile casuale X assume valori in un sottinsieme T Rk per qualche datok. Se k > 1 allora

X = (X1, X2, ..., Xk)

dove Xi è una variabile casuale a valori reali per ogni i. In questo caso, X si dice vettorealeatorio, per sottolineare il suo carattere multidimensionale. Una variabile casuale puòavere anche struttura più complessa. Per esempio, se l'esperimento consiste nelselezionare n unità da una popolazione e registrare varie misurazioni reali per ogni unità,allora l'esito dell'esperimento è un vettore i cui elementi sono a loro volta vettori:

X = (X1, X2, ..., Xn)

dove Xi è il vettore di misurazioni sull'i-esima unità. Esistono altre possibilità; unavariabile casuale può essere una sequenza infinita, o può avere come valori insiemi.

Funzioni e variabili casuali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob3.html (2 di 8) [22/11/2001 17.48.28]

Page 166: Laboratorio virtuale di probabilità e statistica

Esempi specifici sono riportati negli esercizi numerici più avanti. In ogni casi, il puntochiave è semplicemente che la variabile casuale è una funzione dallo spazio campionarioS in un altro insieme T.

Immagini inverse

Supponi che f sia una funzione da S in T. Se B T, l'immagine inversa di B sotto f è ilsottinsieme di S formato dagli elementi che mappano su B:

f -1(B) = {s S: f(s) B}.

Se X è una variabile casuale a valori in T per un esperimento con spazio campionario Sallora utilizziamo la notazione

{X B}= {s S: X(s) B}.

per l'immagine inversa. Osserva che si tratta di un evento (un sottinsieme dello spaziocampionario). A parole, un'affermazione su una variabile casuale definisce un evento.

Le immagini inverse conservano tutte le operazioni sugli insiemi. Negli esercizi seguenti,f è una funzione da S in T. Inoltre, B, C sono sottinsiemi di T, e {Bj: j J} è unacollezione di sottinsiemi di T, dove J è un insieme di indici non vuoto.

4. Mostra che f -1(Bc) = [f -1(B)]c.

5. Mostra che f -1[ j in J Bj] = j in J f -1(Bj).

6. Mostra che f -1[ j in J Bj] = j in J f -1(Bj).

7. Mostra che se B C allora f -1(B) f -1(C).

8. Mostra che se B e C sono disgiunti, allora lo sono anche f -1(B), f -1(C).

Ovviamente, questi risultati si applicano anche alle variabili casuali, varia solo lanotazione.

9. Supponi che X sia una variabile casuale a valori in T, per un esperimento casualecon spazio campionario S. Prova che i risultati degli esercizi 4-9 possono essere espressicome segue:

{X Bc} = {X B}c1.

j in J {X Bj} = {X j in J Bj}.2.

j {X Bj} = {X j Bj}.3.

Se B C allora {X B} {X C}4.

Se B e C sono disgiunti, allora lo sono anche {X B}, {X C}.5.

Funzioni e variabili casuali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob3.html (3 di 8) [22/11/2001 17.48.28]

Page 167: Laboratorio virtuale di probabilità e statistica

Varibili semplici e derivate

Supponiamo, di nuovo, di avere un esperimento casuale con spazio campionario S. L'esitostesso dell'esperimento può essere visto come una variabile casuale. Sia X la funzioneidentità su S:

X(s) = s per s appartenente a S.

Allora, ovviamente, X è una variabile casuale, e gli eventi che possono essere definiti intermini di X sono semplicemente gli eventi originali dell'esperimento:

{X A} = A per A S.

Se Y è un'altra variabile casuale dell'esperimento, che assume valori in un insieme T,allora Y è funzione di X. Ovvero esiste una funzione g da S in T tale che Y è lacomposizione di g con X:

Y = g(X) cioè, Y(s) = g(X(s)) per s appartenente a S.

Possiamo indicare X come variabile esito e Y come variabile derivata. In molti problemidi teoria della probabilità, l'oggetto di interesse è la variabile casuale X. Il fatto che X siala variabile esito o una variabile derivata è spesso irrilevante.

Variabili indicatore

Per ogni evento A, esiste una semplice variabile casuale I detta variabile indicatore di A,il cui valore ci indica se A si è verificato o no:

I(s) = 1 per s A; I(s) = 0 per s Ac.

o più semplicemente, I = 1 se A si verifica e I = 0 se A non si verifica.

10. Prova, di converso, che ogni variabile casuale I che assume i valori 0 o 1 e lavariabile indicatore dell'evento

A = {I = 1} = {s S: I(s) = 1}.

11. Supponi che I sia la variabile indicatore di un evento A. Mostra che 1 - I è lavariabile indicatore di Ac.

12. Supponi che A e B siano eventi con variabili indicatore IA e IB, rispettivamente.Prova che

A B se e solo se IA IB.

13. Supponi che {Aj: j J} sia una collezione di eventi, indicizzata da un insieme nonvuoto J. Sia Ij la variabile indicatore di Aj per ogni j J, e sia I la variabile indicatoredell'intersezione degli eventi. Prova che

Funzioni e variabili casuali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob3.html (4 di 8) [22/11/2001 17.48.28]

Page 168: Laboratorio virtuale di probabilità e statistica

I = j in J Ij = min{Ij: j J}.

14. Supponi che {Aj: j J} sia una collezione di eventi, indicizzata da un insieme nonvuoto J. Sia Ij la variabile indicatore di Aj per ogni j J, e sia I la variabile indicatoredell'unione degli eventi. Prova che

I = 1 - j in J (1 - Ij) = max{Ij: j J}.

15. Supponi che A e B siano eventi di un esperimento casuale con variabili indicatoreIA e IB. Esprimi, in termini di IA e IB, la variabile indicatore di ognuno dei 16 eventi chepossono essere costruiti a partire da A e B

Esercizi numerici

16. Considera l'esperimento consistente nel lanciare due volte un dado equilibrato eregistrare la sequenza di punteggi (X1, X2). Sia Y la somma dei punteggi, U il minimo deidue punteggi, V il massimo dei due punteggi.

Esprimi formalmente lo spazio campionario S.1.

Esprimi Y in funzione di S.2.

Esprimi U in funzione di S.3.

Esprimi V in funzione di S.4.

Esprimi l'evento {X1 < 3, X2 > 4} come sottinsieme di S.5.

Esprimi l'evento {Y = 7} come sottinsieme di S.6.

Esprimi l'evento {U = V} come sottinsieme di S.7.

17. Nell'esperimento dei dadi, poni n = 2 e simula 100 replicazioni. Per ciascuna diesse, calcola il valore di ciascuna delle variabili aleatorie dell'esercizio precedente.

18. Considera l'esperimento delle carte consistente nell'estrarre una carta da un mazzostandard e registrare X = (Y, Z) dove Y è la denominazione e Z il seme. Supponiamo diassegnare valore alle carte come segue: un asso vale 1, una figura 10 e negli altri casi ilvalore è il numero della carta. Sia U il valore della carta.

Descrivi lo spazio campionario S.1.

Descrivi U in funzione dello spazio campionario.2.

Descrivi l'evento {U = 10} come sottinsieme dello spazio campionario.3.

19. Nell'esperimento delle carte, poni n = 1 e simula 100 replicazioni. Per ciascuna diesse, calcola il valore della variabile casuale U dell'esercizio precedente.

20. Ricorda che l'esperimento della moneta di Buffon consiste nel lanciare una moneta

di raggio r 1/2 su un pavimento coperto da mattonelle quadrate di lato 1. Si registrano le

Funzioni e variabili casuali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob3.html (5 di 8) [22/11/2001 17.48.28]

Page 169: Laboratorio virtuale di probabilità e statistica

coordinate (X, Y) del centro della moneta, relativamente ad assi che passano attraverso ilcentro del quadrato e paralleli ai lati. Sia Z la distanza tra il centro della moneta e il centrodel quadrato.

Descrivi formalmente lo spazio campionario S e tracciane il grafico.1.

Esprimi Z in funzione di S.2.

Esprimi l'evento {X < Y} come sottinsieme di S e tracciane il grafico.3.

Esprimi l'evento {Z < 0.5} come sottinsieme di S e tracciane il grafico.4.

21. Replica l'esperimento della moneta di Buffon 100 volte, con r = 0.2. Per ciascunareplicazione, calcola il valore di ciascuna delle variabili casuali dell'esercizio precedente.

22. Un esperimento consiste nel lanciare tre monete bilanciate e registrare (I1, I2, I3),dove Ij è una variabile indicatore che assume valore 1 se e solo se per la j-esima monetaesce testa. Sia X il numero complessivo di teste.

Descrivi formalmente lo spazio campionario S.1.

Esprimi X in funzione di S.2.

Esprimi l'evento {X > 1} come sottinsieme di S.3.

23. Un esperimento consiste nel far lavorare due apparecchi, indicati con a e b, finchénon si guastano. Si registra la sequenza (X, Y) di tempi di guasto (misurata in ore).

Trova lo spazio campionario S dell'esperimento e disegna il grafico di S.1.

Esprimi l'evento in cui a dura meno di 1000 ore in termini delle variabili di base ecome sottinsieme dello spazio campionario. Disegna il grafico dell'evento.

2.

Esprimi l'evento in cui a dura meno di b in termini delle variabili di base e comesottinsieme dello spazio campionario. Disegna il grafico dell'evento.

3.

Esprimi l'evento in cui il tempo di guasto combinato è maggiore di 2000 ore intermini delle variabili di base e come sottinsieme dello spazio campionario.Disegna il grafico dell'evento.

4.

24. Supponiamo di lanciare tre dadi equilibrati e di registrare la sequenza dei punteggi(X1, X2, X3). Un uomo paga 1$ per giocare e riceve 1$ per ogni dado che fa 6. Sia W lavincita netta dell'uomo.

Trova lo spazio campionario S dell'esperimento.1.

Esprimi W in funzione di S.2.

25. Nell'esperimento M&M, si acquista un pacchetto di M&Ms di un certo peso e siregistrano le seguenti misure: numero di pastiglie rosse, verdi, blu, gialle, arancio emarroni e il peso netto (in grammi). I dati M&M riportano il risultato di 30 replicazioni diquesto esperimento. Sia N il numero totale di pastiglie. Calcola N per ciascun pacchettodei dati.

26. L'esperimento della cicala consiste nel catturare una cicala nella regione centraledel Tennessee e registrare le seguenti misurazioni: peso corporeo (in grammi), lunghezza

Funzioni e variabili casuali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob3.html (6 di 8) [22/11/2001 17.48.28]

Page 170: Laboratorio virtuale di probabilità e statistica

e larghezza delle ali e lunghezza del corpo (in millimetri), sesso e specie. I dati sullacicala riportano il risultato di 104 replicazioni di questo esperimento. Sia V il rapporto tralunghezza e larghezza delle ali. Calcola V per ciascuna cicala.

27. Nell'esperimento dado-moneta, si lancia un dado e poi si lancia una moneta ilnumero di volte indicato dal dado. Supponiamo di registrare la seuqenza di punteggi dellemonete (0 per croce, 1 per testa). Inoltre, sia N il punteggio del dado e X il numero diteste.

Trova lo spazio campionario S dell'esperimento. Nota che S contiene sequenze dilunghezza variabile.

1.

Esprimi N in funzione dello spazio campionario.2.

Esprimi X in funzione dello spazio campionario.3.

28. Simula l'esperimento dado-moneta 10 volte. Per ciascuna replicazione, riporta ilvalore delle variabili casuali I, N, e X dell'esercizio precedente.

Queste ultime due sezioni trattano argomenti più avanzati e possono essere omesse allaprima lettura.

Funzioni misurabili

Ricorda che di solito un insieme è definito unitamente a una sigma algebra di sottinsiemiammissibili. Supponiamo che S e T siano insiemi con sigma algebre, rispettivamente, A eB. Se f è funzione da S in T, allora un requisito naturale è che l'immagine inversa di ognisottinsieme ammissibile di T sia un sottinsieme ammissibile di S. Formalmente f si dicemisurabile se

f -1(B) A per ogni B B.

Tutte le funzioni che usiamo nel corso di questo progetto sono ipotizzate essere misurabilirispetto alle appropriate sigma algebre. In particolare, se S è lo spazio campionario di unesperimento, allora la collezione di eventi A è una sigma algebra di sottinsiemi di S. Se Tè un insieme con sigma algebra B, allora, tecnicamente, una variabile casuale X a valori inT è una funzione misurabile da S in T. Questo requisito assicura che ogni affermazioneammissibile riguardo a X è un evento valido.

29. Supponi che R, S, T siano insiemi con sigma algebre, rispettivamente, A, B, e C.Dimostra che, se f è una funzione misurabile da R in S e g è una funzione misurabile da Sin T allora g ° f è una funzione misurabile da R in T.

30. Supponiamo che f sia una funzione da S in T, e che B sia una sigma algebra disottinsiemi di T. Prova che la collezione seguente è una sigma algebra di sottinsiemi di S,detta sigma algebra generata da f:

sigma(f) = {f -1(B): B B}.

In particolare, se S è lo spazio campionario di un esperimento e X è una variabile casualea valori in T, allora la sigma algebra generata da X è la collezione di tutti gli eventi che

Funzioni e variabili casuali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob3.html (7 di 8) [22/11/2001 17.48.28]

Page 171: Laboratorio virtuale di probabilità e statistica

possono essere espressi in termini di X.

sigma(X) = {{X B}: B B}.

Più in generale, supponiamo che Tj sia un insieme con sigma algebra Bj per ogni jappartenente a un insieme non vuoto di indici J, e che fj sia una funzione da S in Tj perogni j. La sigma algebra generata da questa collezione di funzioni è

sigma{fj: j J} = sigma{fj-1(Bj) : j J e Bj Bj}.

Quindi, se S è lo spazio campionario di un esperimento e Xj è una variabile casuale perogni j appartenente a J, allora, intuitivamente, la sigma algebra generata da {Xj :j J} èla collezione di eventi che possono essere espressi in termini delle variabili casuali date.

Casi particolari

La maggior parte degli insiemi che si incontrano nelle applicazioni pratiche della teoriadella probabilità sono non umerabili o sottinsiemi di Rn per qualche n, o, più in generale,sottinsiemi del prodotto di una quantità numerabile di insiemi di questi tipi. In questasezione, analizziamo alcuni di questi casi particolari.

31. Supponi che S sia numerabile e che sia data la sigma algebra di tutti i sottinsiemi(l'insieme delle parti). Dimostra che ogni funzione da S è misurabile.

Ricorda che l'insieme dei numeri reali R ha come sigma algera quella generata dallacollezione di intervalli. Tutte le funzioni elementari da R a R sono misurabili. Le funzionielementari comprendono le funzioni algebriche (polinomi e funzioni razionali), lefunzioni trascendentali i base (esponenziale, logaritmo, trigonometriche) e le funzionicostruite a partire da esse.

Supponiamo che S1, S2, ..., Sn siano insiemi e che Ai sia una sigma algebra di sottinsiemidi Si per ogni i. Ricorda che per l'insieme prodotto

S1 × S2 × ··· × Sn,

usiamo la sigma algebra A generata dalla collezione di tutti gli insiemi prodotto dellaforma

A1 × A2 × ··· × An dove Ai Ai per ogni i.

Se f è funzione da S in T1 × T2 × ··· × Tn, allora f = (f1, ..., fn), dove fi è l'i-esima funzionecoordinata, che mappa S in Ti. Come ci si può aspettare, f è misurabile se e solo se fi èmisurabile per ogni i.

Laboratorio virtuale > Spazi di Probabilità > 1 2 [3] 4 5 6 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Funzioni e variabili casuali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob3.html (8 di 8) [22/11/2001 17.48.28]

Page 172: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Campioni casuali > 1 2 [3] 4 5 6 7 8 9

3. Frequenze relative e distribuzioni empiriche

I campioni casuali e le loro medie campionarie si incontrano pressoché ovunque instatistica. In questo paragrafo vedremo come le medie campionarie possono essereutilizzate per stimare probabilità e funzioni di densità e di ripartizione. Al solito, iniziamocon un semplice esperimento casuale definito su un certo spazio campionario e con unacerta misura di probabilità P.

Frequenze relative

Supponiamo che X sia la variabile casuale dell'esperimento, a valori in S. Osserva che Xpuò essere il risultato completo dell'esperimento, e in questo caso S coinciderebbe con lospazio campionario. Ricorda che la distribuzione di X è la misura di probabilità su S datada

P(A) = P(X A) per A S.

Supponiamo ora di fissare A. Richiamiamo la variabile indicatore IA, che assume valore 1se X appartiene ad A e 0 altrimenti. Questa variabile indicatore ha distribuzione diBernoulli con parametro P(A).

1. Mostra che media e varianza di IA valgono

E(IA) = P(A).1.

var(IA) = P(A)[1 - P(A)].2.

Supponiamo ora di ripetere indefinitamente questo esperimento e di avere così le variabilicasuali X1, X2, ..., ciascuna distribuita come X. Pertnato, per ogni n, (X1, X2, ..., Xn) è uncampione casuale di dimensione n estratto dalla distribuzione di X. La frequenza relativadi A per questo campione è

Pn(A) = #{i {1, 2, ..., n}: Xi A} / n per A S.

La frequenza relativa di A è una statistica che indica la percentuale di volte in cui A si èverificato nelle prime n replicazioni.

2. Mostra che Pn(A) è la media campionaria di un campione casuale di dimensione nestratto dalla distribuzione di IA. Concludi quindi che

E[Pn(A)] = P(A).1.

var[Pn(A)] = P(A)[1 - P(A)] / n2.

Pn(A) P(A) as n (quasi certamente).3.

Questo caso particolare delle legge forte dei grandi numeri è fondamentale per il concetto

Frequenze relative e distribuzioni empiriche

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample3.html (1 di 7) [22/11/2001 17.48.39]

Page 173: Laboratorio virtuale di probabilità e statistica

stesso di probabilità.

3. Mostra che, dato un certo campione, Pn soddisfa gli assiomi della misura diprobabilità.

La misura di probabilità Pn individua la distribuzione empirica di X, basata sul campionecasuale. Si tratta di una distribuzione discreta, concentrata sui diversi valori di X1, X2, ...,Xn. Di fatto, pone massa di probabilità 1/n su Xi per ogni i, cosicché, se i valoricampionari sono distinti, la distribuzione empirica è uniforme su tali valori.

Molte applets in questo progetto sono simulazioni di esperimenti casuali che riportanoeventi d'interesse. Quando si fa un esperimento, si generano replicazioni indipendentidell'esperimento. In molti casi, l'applet indica la frequenza relativa dell'evento e il suocomplementare sia numericamente che graficamente (in blu). Anche le frequenzeempiriche sono riportate sia graficamente (in rosso), che numericamente.

4. Nell'esperimento della moneta di Buffon, L'evento d'interesse è che la monetafinisca su un'intercapedine. Esegui l'esperimento 1000 volte, aggiornando ogni 10, eosserva la convergenza della frequenza relativa dell'evento al valore di probabilità "vero".

5. Nell'esperimento di Bertrand, l'evento d'interesse e che una "corda aleatoria" su uncerchio sia più lunga della lunghezza di un lato del trinagolo equilatero inscritto. Eseguil'esperimento 1000 volte, aggiornando ogni 10, e osserva la convergenza della frequenzarelativa dell'evento al valore di probabilità "vero".

Le sezioni seguenti analizzano diversi casi particolare di frequenze relative.

La funzione di ripartizione empirica

Supponiamo ora che X sia una variabile casuale a valori reali. Ricorda che la funzione diripartizione di X è la funzione F definita come

F(x) = P(X x) per x R.

Supponiamo ora d ripetere l'esperimento per avere X1, X2, ..., varaibili casualiindipendenti, ciascuna distribuita come X. Per ogni n, (X1, X2, ..., Xn) è un campionecasuale di dimensione n tratto dalla distribuzione di X. È naturale definire la funzione diripartizione empirica come

Fn(x) = #{i {1, 2, ..., n}: Xi x} / n.

Per ogni x, Fn(x) è una statistica che indica la frequenza relativa dei valori campionariminori o uguali a x.

6. Dimostra che

Fn è crescente da 0 a 1.1.

Fn è una funzione a gradini con "salti" per i valori distinti di X1, X2, ..., Xn.2.

Frequenze relative e distribuzioni empiriche

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample3.html (2 di 7) [22/11/2001 17.48.39]

Page 174: Laboratorio virtuale di probabilità e statistica

Fn è la funzione di ripartizione della distribuzione empirica basata su {X1, X2, ...,Xn}.

3.

7. Dimostra che, per ogni x, Fn(x) è la media campionaria di un campione casuale di

dimensione n tratto dalla distribuzione della variabile I indicatore dell'evento {X x}.Concludi quindi che

E[Fn(x)] = F(x).1.

var[Fn(x)] = F(x) [1 - F(x)] / n.2.

Fn(x) F(x) per n (quasi certamente).3.

Densità empirica per una variabile discreta

Supponiamo ora che X sia la variabile casuale dell'esperimento base con distribuzionediscreta su un insieme numerabile S. Indichiamo con f la funzione di densità di X,cosicché

f(x) = P(X = x) per x S.

Ripetiamo l'esperimento per avere X1, X2, ..., variabili casuali indipendenti, ciascunadistribuita come X. Per ogni n, (X1, X2, ..., Xn) è un campione casuale di dimensione nestratto dalla distribuzione di X. La funzione di frequenza relativa (o funzione di densitàempirica) relativa al campione è data da

fn(x) = #{i {1, 2, ..., n}: Xi = x} / n for x S.

Per ogni x, fn(x) è una statistica che indica la frequenza relativa dei valori del campioneche hanno valore x.

8. Prova che la funzione di densità empirica soddisfa i requisiti per essere una funzionedi densità discreta:

fn(x) 0 per ogni x S.1.

x appartenente a S fn(x) = 1.2.

fn è la funzione di densità della distribuzione empirica basata su {X1, X2, ..., Xn}3.

9. Dimostra che, se X è a valori reali, allora la media campionaria di (X1, X2, ..., Xn) èla media della funzione di densità empirica.

10. Prova che, per ogni x, fn(x) è la media campionaria per un campione casuale didimensione n estratto dalla distribuzione della variabile I, indicatore dell'evento {X = x}.Concludi quindi che

E[fn(x)] = f(x).1.

var[fn(x)] = f(x)[1 - f(x)] / n2.

Frequenze relative e distribuzioni empiriche

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample3.html (3 di 7) [22/11/2001 17.48.39]

Page 175: Laboratorio virtuale di probabilità e statistica

fn(x) f(x) as n .3.

Molte applets in questo progetto sono simulazioni di esperimenti relativi a variabilidiscrete. Quando si fa un esperimento, si generano replicazioni indipendentidell'esperimento. In molti casi, l'applet indica la funzione di densità "vera" in blu e lafunzione di densità empirica in rosso.

11. Nell'esperimento del poker, la variabile casuale è la mano che si ottiene. Esegui1000 replicazioni aggiornando ogni 10 e osserva la convergenza della funzione di densitàempirica a quella teorica.

12. Nell'esperimento binomiale della moneta, la variabile casuale è il numero di teste.Esegui 1000 replicazioni aggiornando ogni 10 e osserva la convergenza della funzione didensità empirica a quella teorica.

13. Nell'esperimento della concordanza, la variabile casuale è il numero di successi .Esegui 1000 replicazioni aggiornando ogni 10 e osserva la convergenza della funzione didensità empirica a quella teorica.

Densità empirica di una variabile continua

Ricorda, di nuovo, che la misura standard in k-dimensioni su Rk è data da

mk(A) = A1dx for A Rk.

In particolare, m1 è la misura di lunghezza du R, m2 è la misura di area su R2, e m3 è la

misura di volume su R3.

Supponiamo ora che X sia una variabile casuale con distribuzione continua su unsottinsieme S di Rk. Sia f la funzione di densità di X; più precisamente, f è la densitàrispetto a mk. Pertanto, per definizione,

P(X A) = A f(x) dx for A S.

Ripetiamo, di nuovo, l'esperimento, ottenendo le variabili casuali indipendenti X1, X2, ...,ciascuna distribuita come X. Per ogni n, (X1, X2, ..., Xn) è un campione casuale didimensione n estratto dalla distribuzione di X.

Supponiamo ora che {Aj: j J} sia una partizione S in un insieme numerabile disottinsiemi. Come già fatto in precedenza, possiamo definire la probabilità empirica di Aj,basata sui primi n valori campionari, come

Pn(Aj) = #{i {1, 2, ..., n}: Xi Aj} / n.

Possiamo quindi definire la funzione di densità empirica come segue:

Frequenze relative e distribuzioni empiriche

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample3.html (4 di 7) [22/11/2001 17.48.39]

Page 176: Laboratorio virtuale di probabilità e statistica

fn(x) = Pn(Aj) / mk(Aj) per x Aj.

Ovviamente la funzione di densità empirica fn dipende dalla partizione, ma lasciamoperdere ciò per evitare che la notazione diventi del tutto illeggibile. Naturalmente, perogni x, fn(x) è una variabile casuale (di fatto, una statistica), ma per la definizione stessadi densità, se la partizione è sufficientemente fine (di modo che Aj sia piccolo per ogni j)e se n è sufficientemente grande, allora, per la legge dei grandi numeri si ha

fn(x) ~ f(x) per x S.

14. Dimostra che fn soddisfa le condizioni per essere una funzione di densità diprobabilità:

fn(x) 0 per ogni x S.1.

S fn(x)dx = 1.2.

fn corrisponde alla distribuzione per la quale Pn(Aj) è distribuito uniformemente suAj per ogni j.

3.

Molte applets in questo progetto sono simulazioni di esperimenti relativi a variabilicontinue. Quando si fa un esperimento, si generano replicazioni indipendentidell'esperimento. In molti casi, l'applet indica la funzione di densità "vera" in blu e lafunzione di densità empirica in rosso.

15. Esegui l'esperimento esponenziale 1000 volte, aggiornando ogni 10. Osserva laconvergenza della funzione di densità empirica a quella teorica.

16. Nell'applet variabile casuale, seleziona la distribuzione normale. Esegui 1000replicazioni aggiornando ogni 10 e osserva la convergenza della funzione di densitàempirica a quella teorica.

Analisi esplorativa dei dati

Molti dei concetti presentati poc'anzi sono sovente utilizzati nell'analisi esplorativa deidati. In generale, supponiamo che x sia una variabile (in genere un vettore di variabili),rilevata su una certa popolazione, e che

x1, x2, ..., xn

siano i dati osservati su un campione di dimensione n, relativo a questa variabile. Peresempio, x può indicare il conteggio di colori (codificato) e il peso di un pacchetto diM&Ms. Sia ora {Aj: j J} una partizione dei dati, con J insieme finito di indici. Gliinsiemi Aj: j J si dicono classi. Analogamente a quanto già visto, definiamo lafrequenza e la frequenza relativa di Aj come segue:

q(Aj)= #{i {1, 2, ..., n}: xi Aj}.●

Frequenze relative e distribuzioni empiriche

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample3.html (5 di 7) [22/11/2001 17.48.39]

Page 177: Laboratorio virtuale di probabilità e statistica

p(Aj) = q(Aj) / n.●

Se x è una variabile continua a valori in Rk, possiamo anche definire la densità di Aj :

f(Aj) = p(Aj) / mk(Aj),

La funzione q che assegna le frequenze alle classi è nota come distribuzione di frequenzaper i dati . Ugualmente, p e f definiscono rispettivamente la distribuzione di frequenzarelativa e la distribuzione di densità per i dati. Se k = 1 o 2, il grafico a barre di questedistribuzioni è detto istogramma.

La ragione per cui si costruiscono e si disegnano queste distribuzioni empiriche è quelladi raccogliere e presentare i dati in maniera informativa. Alcuni suggerimenti nella sceltadelle classi sono i seguenti:

Il numero di classi dev'essere limitato.1.

Possibilmente, le classi devono avere la stessa dimensione.2.

17. Nell'applet istogramma interattivo, clicca sull'asse x in vari punti per generare uninsieme di 20 dati. Varia l'ampiezza della classe sui 5 valori tra 0.1 e 5.0. Per ogniampiezza di classe osserva l'istogramma delle frequenze e delle frequenze relative evalutane i cambiamenti.

È importante capire che i dati di frequenza sono scontati per una variabile continua.Supponi per esempio che la variabile casuale sia il peso (in grammi) di un pacchetto diM&Ms e che il dispositivo di misura sia preciso a 0.01 grammi. Se il peso di un pacchettoè 50.32, stiamo in realtà dicendo che il peso è compreso nell'intervallo [50.315, 50.324).Ugualmente, se due pacchetti hanno lo stesso peso misurato, l'apparente uguaglianza deipesi è in realtà solo una finzione dovuta all'inaccuratezza del dispositivo di misura; inrealtà i due pacchetti non hanno quasi certamente lo stesso peso. Pertanto due pacchetti ilcui peso misurato è uguale ci danno una frequenza di 2 su un certo intervallo.

Di nuovo, esiste un trade-off tra il numero di classi e la loro dimensione; questi fattorideterminano la risoluzione della distribuzione empirica. Nel caso più estremo, quandol'ampiezza delle classi è più piccola della precisione del dispositivo di misura, ogni classecontiene un unico valore distinto. In questo caso non vi è perdita di informazione e si puòrisalire ai dati originari dalla distribuzione di frequenza (a parte l'ordine in cui i dati eranostati ottenuti). D'altra parte, riesce difficile individuare la forma dei dati quando si hannomolte classi di piccola dimensione. All'altro estremo abbiamo una distribuzione difrequenza con un'unica classe che contiene tutti i valori. In questo caso si perde tuttal'informazione, a parte il numero dei dati originari. Al di là di questi due casi estremi,possiamo dire che la distribuzione empirica ci dà informazioni parziali e incomplete, mapuò essere utilizzata per organizzare e presentare i dati in modo più comprensibile.

18. Nell'applet istogramma interattivo, poni l'ampiezza di classe a 0.1. Clicca sull'assex per generare un insieme di dati con 10 valori distinti e 20 valori totali.

Scrivi, sulla base della distribuzione di frequenza, i 20 valori generati.1.

Incrementa l'ampiezza di classe a 0.2, 0.5, 1.0 e 5.0. Osserva come l'istogramma2.

Frequenze relative e distribuzioni empiriche

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample3.html (6 di 7) [22/11/2001 17.48.39]

Page 178: Laboratorio virtuale di probabilità e statistica

perde risoluzione, ovvero come la distribuzione di frequenza perde informazioni suidati originari.

19. Sui dati di Michelson, costruisci la distribuzione di frequenza per la variabilevelocità della luce usando 10 classi di uguale ampiezza. Disegna l'istogramma e descrivila forma della distribuzione.

20. Sui dati di Cavendish, costruisci una distribuzione di frequenza relativa per ladensità della variabile terra usando 5 classi di uguale ampiezza. Disegna l'istogramma edescrivi la forma della distribuzione.

22. Coi dati M&M, costruisci la distribuzione di frequenza e l'istogramma per levariabili numero complessivo e peso.

23. Sui dati della cicala, costruisci la distribuzione di densità e l'istogramma per lavariabile peso corporeo nei casi riportati qui sotto. Osserva le differenze.

Tutte le specie1.

Ciascuna specie singolarmente2.

Maschi e femmine singolarmente3.

24. Nell'applet istogramma interattivo, poni l'ampiezza di classe a 0.1 e clicca sull'asseper generare le distribuzioni dei tipi proposti (30 osservazioni). Aumenta l'ampiezza dellaclasse e descrivi il tipo di distribuzione.

Distribuzione uniforme1.

Distribuzione simmetrica unimodale2.

Distribuzione unimodale asimmetrica a destra3.

Distribuzione unimodale asimmetrica a sinistra4.

Distribuzione simmetrica bimodale5.

Distribuzione a forma di u6.

Laboratorio virtuale > Campioni casuali > 1 2 [3] 4 5 6 7 8 9Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Frequenze relative e distribuzioni empiriche

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample3.html (7 di 7) [22/11/2001 17.48.39]

Page 179: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli di campionamento finito > 1 [2] 3 4 5 6 7 8 9 10

2. La distribuzione ipergeometrica

Supponiamo di avere una popolazione dicotomica D composta da due tipi di unità. Peresempio, possiamo avere delle palline in un'urna colorate di rosso o di verde, una scatoladi componenti elettronici funzionanti o difettosi, una popolazione di persone maschi ofemmine, o una popolazione di animali marchiati o non marchiati. Sia D1 il sottinsieme diD formato dalle unità di tipo 1, e si supponga che D1 abbia cardinalità R. Come nelmodello di campionamento semplice, estraiamo a caso n unità da D:

X = (X1, X2, ..., Xn), dove Xi appartenente a D è l'i-esima unità estratta.

In questo paragrafo ci occupiamo della variabile casuale Y, che indica il numero dioggetti di tipo 1 nel campione. Notiamo che Y è una variabile di conteggio, e come talepuò essere scritta come somma di variabili indicatore.

1. Prova che Y = I1 + I2 + ··· + In dove Ii = 1 se Xi appartiene a D1 (l'i-esima unità è ditipo 1) e Ii = 0 altrimenti.

Per iniziare, assumeremo di estrarre senza reinserimento, che è di solito la scelta piùrealistica nel caso di popolazioni dicotomiche.

La funzione di densità

Ricordiamo che, poiché l'estrazione avviene senza reinserimento, il campione nonordinato è distribuito uniformemente sull'insieme di tutte le combinazioni di dimensione nestratte da D. Tale osservazione di porta a una semplice derivazione caombinatoriale delladensità di Y.

2. Mostra che, per k = max{0, n - (N - R)}, ..., min{n, R},

P(Y = k) = C(R, k) C(N - R, n - k) / C(N, n).

Tale formula è nota come distribuzione ipergeometrica con parametri N, R, e n. Seadottiamo la convenzione C(j, i) = 0 per i > j la formula della funzione di densità ècorretta per k = 0, 1, ..., n.

3. Prova che la formulazione alternativa della densità ipergeometrica in due modi:usando il calcolo combinatorio, considerando l'esito come permutazione di dimensione nestratta dalla popolazione di N palline, e algebricamente, partendo dal risultatodell'esercizio 2.

P(Y = k) = C(n, k) (R)k (N - R)n - k / (N)n per k = 0, 1, ..., n.

4. Nell'esperimento delle palline nell'urna, seleziona estrazione senza reinserimento.Modifica i parametri e osserva la forma del grafico della funzione di densità. Con N = 50,

La distribuzione ipergeometrica

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn2.html (1 di 4) [22/11/2001 17.48.46]

Page 180: Laboratorio virtuale di probabilità e statistica

R = 30 e n = 10 esegui l'esperimento aggiornando ogni 100 replicazioni. Osserva laconvergenza delle frequenze relative alla funzione di densità.

Momenti

Negli esercizi seguenti ricaveremo media e varianza di Y. Avranno un ruolo chiave laproprietà di scambiabilità delle variabili indicatore e le proprietà di covarianza ecorrelazione.

5. Dimostra che E(Ii) = R / N per ogni i.

6. Prova che E(Y) = n (R / N).

8. Mostra che var(Ii) = (R / N) (1 - R / N) per ogni j.

9. Prova che, per i e j distinti,

cov(Ii, Ij) = -(R / N) (1 - R / N) [1 / (N - 1)]a.

cor(Ii, Ij) = -1 / (N - 1)2.

Nota dall'esercizio 9 che l'evento in cui si estrae un'unità di tipo 1 all'i-esima estrazione el'evento in cui se ne estrae una alla j-esima sono negativamente correlati, ma lacorrelazione dipende solo dala dimensione della popolazione e non dal numero di unità ditipo 1. Nota inoltre che la correlazione è perfetta se N= 2. Prova a interpretare questirisultati in termini intuitivi.

10. Nell'esperimento delle palline nell'urna, poni N = 50, R = 20 e n = 10 ed eseguil'esperimento 500 volte, aggiornando ogni volta. Calcola la correlazione empirica deglieventi "pallina rossa alla terza estrazione" e "pallina rossa alla settima estrazione" econfronta i risultati con quelli teorici presentati nell'esercizio precedente.

11. Usa i risultati degli esercizi 8 e 9 per mostrare che

var(Y) = n (R / N)(1 - R / N) (N - n) / (N - 1).

Nota che var(Y) = 0 se R = 0, R = N, o n = N. Pensa a questi risultati.

14. Nell'esperimento delle palline nell'urna, seleziona estrazione senza reinserimento.Modifica i parametri e osserva la dimensione e la posizione della barra media/deviazionestandard. Con N = 50, R = 30 e n = 10 esegui l'esperimento aggiornando ogni 100replicazioni. Osserva la convergenza dei momenti empirici a quelli teorici.

15. Una scatola di 100 chip di memoria contiene 10 chip difettosi. Si estraggono acaso cinque chip, senza reinserimento.

Calcola esplicitamente la funzione di densità del numero di chip difettosi nelcampione.

1.

Calcola esplicitamente media e varianza del numero di chip difettosi del campione.2.

Trova la probabilità che il campione contenga almeno un chip difettoso.3.

La distribuzione ipergeometrica

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn2.html (2 di 4) [22/11/2001 17.48.46]

Page 181: Laboratorio virtuale di probabilità e statistica

16. Un club comprende 50 membri, 20 uomini e 30 donne. Si forma a caso uncomitato di 10 membri.

Trova media e varianza del numero di donne nel comitato.1.

Trova media e varianza del numero di uomini nel comitato.2.

Trova la probabilità che tutti i membri del comitato siano dello stesso sesso.3.

Estrazioni con reinserimento

Supponiamo ora che le estrazioni siano effettuate con reinserimento, anche se ciò non èsempre realistico nelle applicazioni reali.

17. Prova che gli I1, I2, ..., In formano una sequenza di n prove Bernoulliane conparametro di successo R / N.

I risultati seguenti seguono immediatamente dalla teoria generale delle proveBernoulliane, anche se a volte si possono utilizzare dimostrazioni modificate.

18. Mostra che Y ha distribuzione binomiale con parametri n e R / N:

P(Y = k) = C(n, k) (R / N)k(1 - R / N)n - k per k = 0, 1, ..., n.

19. Prova che

E(Y) = n(R / N).1.

var(Y) = n(R / N)(1 - R / N)2.

Notiamo che per qualsiasi valore dei parametri, E(Y) resta lo stesso, sia nel caso delcampionamento con reinserimento che in quello senza reinserimento. D'altra parte, var(Y)è inferiore, di un fattore di (N - n) / (N - 1), quando il campionamento avviene senzareinserimento rispetto al caso con reinserimento. Pensa a questi risultati. Il fattore(N - n) / (N - 1) è a volte detto fattore di correzione della popolazione finita.

Convergenza della distribuzione ipergeometrica alla binomiale

Supponiamo che la dimensione della popolazione N sia molto grande rispetto alladimensione del campione n. In questo caso, sembra ragionevole che il campionamentosenza reinserimento non sia molto diverso da quello con reinserimento, e quindi ladistribuzione ipergeometrica dovrebbe approssimarsi bene con la binomiale. L'esercizioseguente precisa questa osservazione. All'atto pratico, si tratta di un risultato prezioso,poiché in molti casi non conosciamo con esattezza la dimensione della popolazione.

20. Supponi che R dipenda da N e che

R / N p in [0, 1] per N .

Mostra che, per dato n, la densità ipergeometrica con parametri N, R e n converge alladensità binomiale con parametri n e p. Suggerimento: Usa la rappresentazionedell'esercizio 3.

La distribuzione ipergeometrica

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn2.html (3 di 4) [22/11/2001 17.48.46]

Page 182: Laboratorio virtuale di probabilità e statistica

21. Nell'esperimento delle palline nell'urna, modifica i parametri e cambia daestrazione con reinserimento a estrazione senza reinserimento. Osserva la differenza tra ilgrafico delle distribuzioni ipergeometrica e binomiale. Poni N = 100, n = 10 e R = 30.Simula 1000 replicazioni, aggiornando ogni 100. Confronta le frequenze relative con lafunzione di densità ipergeometrica e con l'approssimazione binomiale.

22. Un laghetto contiene 1000 pesci, di cui 100 sono marchiati. Supponi che venganocatturati 20 pesci.

Calcola la probabilità che il campione contenga almeno 2 pesci marchiati.1.

Trova l'approssimazione binomiale alla probabilità di (a).2.

Calcola l'errore relativo dell'approssimazione.3.

23. Il 40% degli elettori di un comune preferiscono il candidato A. Supponi discegliere a caso 10 elettori. Trova la probabilità che almeno 5 preferiscano il candidato A.

24. Nel contesto dell'esercizio 20, mostra che media e varianza della distribuzioneipergeometrica convergono alla media e alla varianza della distribuzione binomiale per N

.

Laboratorio virtuale > Modelli di campionamento finito > 1 [2] 3 4 5 6 7 8 9 10Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione ipergeometrica

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn2.html (4 di 4) [22/11/2001 17.48.46]

Page 183: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli speciali > A B [C] D E F G H

C. Modelli di campionamento finito

Sommario

Introduzione1.

La distribuzione ipergeometrica2.

Inferenza nel modello ipergeometrico3.

La distribuzione ipergeometrica multivariata4.

Statistiche d'ordine5.

Il problema della concordanza6.

Il problema del compleanno7.

Numero di valori campionari distinti8.

Il problema del collezionista9.

Note conclusive10.

Applets

Esperimento delle palline e dell'urna●

Esperimento delle carte●

Esperimento delle statistiche d'ordine●

Esperimento della concordanza●

Esperimento del compleanno●

Esperimento del compleanno generalizzato●

Esperimento del collezionista●

Laboratorio virtuale > Modelli speciali > A B [C] D E F G HSommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Modelli di campionamento finito

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/index.html [22/11/2001 17.48.48]

Page 184: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Prove Bernoulliane > 1 [2] 3 4 5 6 7

2. La distribuzione binomiale

Supponiamo che il nostro esperimento casuale consista nell'eseguire prove BernoullianeI1, I2, .... In questo paragrafo analizzeremo la variabile casuale Xn che indica il numero disuccessi nelle prime n prove. Tale variabile ha un'espressione semplice in termini dellevariabili indicatore:

1. Mostra che Xn = I1 + I2 + ··· + In.

La funzione di densità

2. Supponi che K N = {1, 2, ..., n} and #(K) = k. Usa le assunzioni sulle proveBernoulliane per mostrare che

P(Ij = 1 per j K e Ij = 0 per j N - K) = pk(1 - p)n -k.

Ricorda che il numero di sottinsiemi di dimensione k da un insieme di dimensione n è ilcoefficiente binomiale

C(n, k). = n!/[k!(n - k)!}

3. Usa l'esercizio 2 e le proprietà fondamentali della probabilità per mostrare che

P(Xn = k) = C(n, k)pk(1 - p)n-k per k = 0, 1, ..., n.

La distribuzione con questa funzione di densità è detta distribuzione binomiale conparametri n e p. La famiglia binomiale è una delle più importanti in probabilità.

4. Nell'esperimento binomiale della moneta, modifica n e p con le barre a scorrimentoe osserva forma e posizione della funzione di densità. Con n = 10 e p = 0.7, simula 1000replicazioni, aggiornando ogni 10. Osserva la convergenza della frequenza relativa allafunzione di densità.

5. Per 5 lanci di un dado bilanciato, trova esplicitamente la funzione di densità delnumero di uno.

6. Uno studente esegue un test a scelta multipla con 10 domande, ciascuna con 4possibilità. Se lo studente tira a indovinare, trova la probabilità di indovinare almeno 5domande.

7. Usa il teorema binoniale per mostrare che la funzione di densità binomiale èeffettivamente una funzione di densità di probabilità (discreta).

8. Mostra che

La distribuzione binomiale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli2.html (1 di 7) [22/11/2001 17.48.59]

Page 185: Laboratorio virtuale di probabilità e statistica

P(Xn = k) > P(Xn = k - 1) se e solo se k < (n + 1)p.1.

P(Xn = k) = P(Xn = k - 1) se e solo se (n + 1)p è un intero tra 1 e n, e k = (n + 1)p2.

Quindi la funzione di densità prima cresce e poi decresce, raggiungendo il massimo afloor[(n + 1)p]; tale intero è la moda della distribuzione. (Ricorda che floor(x) è ilmaggiore intero minore di x). Nel caso in cui m = (n + 1)p è un intero tra 1 e n, ci sonodue mode consecutive, a m - 1 e m. In ciascuno degli eventi, la forma della distribuzionebinomiale è unimodale.

9. Supponi che U sia una variabile casuale con distribuzione binomiale con parametri ne p. Mostra che n - U ha distribuzione binomiale con parametri n e 1 - p.

Dai una dimostrazione probabilistica basata sulle prove di Bernoulli1.

Dai una dimostrazione analitica basata sulle funzioni di densità2.

Problemi famosi

Nel 1693, Samuel Pepys chiese a Isaac Newton se è più probabile avere almeno un uno in6 lanci di un dado o almeno due uno in 12 lanci di un dado. Tale problema è noto comeproblema di Pepys; ovviamente Pepys si riferiva a dadi bilanciati.

10. Prova a rispondere al problema di Pepys basandoti sui dati empirici. Con un datoequilibrato e n = 6, simula l'esperimento del dado 500 volte e calcola la frequenza relativadi almeno un uno. Con n = 12, simula 500 replicazioni e calcola la frequenza relativa dialmeno due uno. Confronta i risultati.

11. Risolvi il problema di Pepys utilizzando la distribuzione binomiale.

12. Cos'è più probabile: almeno un uno su 4 lanci di un dado equilibrato o almeno undoppio uno in 24 lanci di due dadi equilibrati? Questo è noto come problema di DeMerein onore del Chevalier De Mere

Momenti

Vediamo ora come calcolare media e varianza della distribuzione binomiale in vari modidiversi. Il metodo che utilizza le variabili indicatore è il migliore.

13. Usa l'esercizio 1 e le proprietà del valore atteso per mostrare che

E(Xn) = np.

Ciò ha senso a livello intuitivo, poiché p dev'essere approssimativamente la proporzionedi successi in un numero elevato di prove.

14. Calcola la media utilizzando la funzione di densità.

15. Usa l'esercizio 1 e le proprietà della varianza per mostrare che

La distribuzione binomiale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli2.html (2 di 7) [22/11/2001 17.48.59]

Page 186: Laboratorio virtuale di probabilità e statistica

var(Xn) = np(1 - p)

16. Disegna il grafico della varianza in funzione di p. Nota in particolare che lavarianza è massima quando p = 1/2 e minima quando p = 0 o p = 1.

17. Calcola la varianza utilizzando la funzione di densità.

18. Prova che la funzione generatrice di probabilià è data da

E(tXn) = (1 - p + pt)n per t appartenente a R

19. Usa la funzione generatrice di probabilità dell'esercizio 18 per calcolare media evarianza.

20. Usa l'identità jC(n, j) = nC(n - 1, j - 1) per n, j = 1, 2, ... per mostrare che

E(Xnk) = npE[(Xn - 1 + 1)k - 1] per n, k = 1, 2, ...

21. Usa il risultato ricursivo dell'esericizio 20 per ricavare in un altro modo media evarianza.

22. Nell' esperimento binomiale della moneta, modifica n e p con le barre ascorrimento e osserva posizione e dimensione della barra media/deviazione standard. Conp = 0.7, simula 1000 replicazioni, aggiornando ogni 10. Osserva la convergenza di mediae deviazione standard ai loro valori teorici.

23. Un certo tipo di missile ha probabilità di fallimento 0.02. Calcola media edeviazione standard del numero di fallimenti in 50 lanci.

24. Si lancia 1000 volte un dado bilanciato. Trova media e deviazione standard delnumero di "uno".

La tavola di Galton

La tavola di Galton è una matrice triangolare di chiodi. Le righe sono numerate 0, 1, ... dacima a fondo. La riga n ha n + 1 chiodi, numerati da 0 a n da sinistra a destra. Ciascunchiodo, quindi, può essere identificato dalla coppia ordinata (n, k) dove n è il numero diriga e k è il numero del chiodo in tale riga. La tavola di Galton prende il nome da FrancisGalton.

Supponiamo ora di far cadere una pallina sul primo chiodo (0, 0). Ogni volta che lapallina cade su un chiodo, cade alla sua destra con probabilità p e alla sua sinistra conprobabilità 1 - p, indipendentemente da volta a volta.

25. Prova che il numero di chiodi su cui la pallina cade nella riga n ha distribuzionebinomiale con parametri n e p.

26. Nell'esperimento della tavola di Galton, poni n = 10 e p = 0.1. Clicca su step

La distribuzione binomiale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli2.html (3 di 7) [22/11/2001 17.48.59]

Page 187: Laboratorio virtuale di probabilità e statistica

diverse volte e osserva le palline cadere tra i chiodi. Ripeti per p = 0.3, 0.5, 0.7, e 0.9.

27. Nell'esperimento della tavola di Galton, poni n = 15 e p = 0.1. Esegui 100replicazioni, aggiornando ogni volta. Osserva la forma generale dei sentieri di caduta.Ripeti per p = 0.3, 0.5, 0.7, e 0.9.

Somme di variabili binomiali indipendenti

Introduciamo ora un'importante proprietà di invarianza per la distribuzione binomiale.

28. Usa la rappresentazione in termini delle variabili indicatore per mostrare che se m en sono interi positivi allora

Xm+n - Xm ha la stessa distribuzione di Xn (binomiale con parametri n e p).1.

Xm+n - Xm e Xm sono indipendenti.2.

Pertanto, il processo stocastico Xn, n = 1, 2, ... ha incrementi indipendenti e stazionari.

29. Prova che, se U e V sono variabili indipendenti relative a un esperimento, U hadistribuzione binomiale con parametri m e p e V ha distribuzione binomiale con parametrin e p, allora U + V ha distribuzione binomiale con parametri m + n e p.

Fornire una dimostrazione probabilistica, usando l'esercizio 28.1.

Fornire una dimostrazione analitica, utilizzando le funzioni di densità.2.

Fornire una dimostrazione analitica, utilizzando le funzioni generatrici diprobabilità.

3.

Rapporto con la distribuzione ipergeometrica

30. Supponi che m < n. Prova che

P(Xm = j | Xn = k) = C(m, j) C(n - m, k - j) / C(n, k) per j = 0, 1, ..., m.

È interessante notare che la distribuzione dell'esercizio 30 è indipendente da p. Si trattadella distribuzione ipergeometrica con parametri n, m e k. Prova a interpretare questorisultato in termini probabilistici.

31. Si lancia una moneta 100 volte e si ottengono 30 teste. Trova la funzione didensità del numero di teste nei primi 20 lanci.

Approssimazione normale

32. Nell'esperimento binomiale temporale, poni p = 0.1. Inizia con n = 1 e aumentaogni volta n di 1. Osserva la forma della funzione di densità. Con n = 100, simula 1000replicazioni, aggiornando ogni 10. Ripeti per p = 0.3, 0.5, 0.7 e 0.9.

La caratteristica forma a campana che dovresti osservare dall'esercizio 32 costituisce unabuona esemplificazione del teorema limite centrale, poiché la variabile binomiale può

La distribuzione binomiale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli2.html (4 di 7) [22/11/2001 17.48.59]

Page 188: Laboratorio virtuale di probabilità e statistica

essere scritta come somma di n variabili casuali indipendenti e identicamente distribuite(le variabili indicatore).

33. Prova che la distribuzione della variabile standardizzata riportata converge alladistribuzione normale standardizzata al crescere di n

(Xn - np) / [np(1 - p)]1/2.

Questa versione del teorema limite centrale è nota come teorema di DeMoivre-Laplace, eprende nome da Abraham DeMoivre e Simeon Laplace. Dal punto di vista pratico,l'esercizio 33 significa che, per n sufficientemente grande, la distribuzione di Xn èapprossimatamente normale, con media np e varianza np(1 - p). Quanto grande ndev'essere perché l'approssimazione sia accettabile dipende dal valore di p. La regolaempirica è che np e n(1 - p) devono valere almeno 5.

34. Nell'esperimento binomiale temporale, poni p = 0.5 e n = 15. Simula 1000replicazioni, aggiornando ogni 100. Calcola e confronta i seguenti:

P(5 X15 10)1.

La frequenza relativa dell'evento {5 X15 10}2.

L'approssimazione normale a P(5 X15 10)3.

35. Nell'esperimento binomiale temporale, poni p = 0.3 e n = 20. Simula 1000replicazioni, aggiornando ogni 100. Calcola e confronta i seguenti:

P(5 X20 10)1.

La frequenza relativa dell'evento {5 X20 10}2.

L'approssimazione normale a P(5 X20 10)3.

36. Nell'esperimento binomiale temporale, poni p = 0.8 e n = 30. Simula 1000replicazioni, aggiornando ogni 100. Calcola e confronta i seguenti:

P(22 X30 27)1.

La frequenza relativa dell'evento {22 X30 27}2.

L'approssimazione normale a P(22 X30 27)3.

37. Supponi che in un certo comune, il 40% degli elettori preferiscano il candidato A.Si estrae un campione di 50 elettori.

Trova media e varianza del numero di elettori del campione che preferiscono A.1.

Trova la probabilità che meno di 19 soggetti del campione preferiscano A.2.

Calcola l'approssimazione normale alla probabilità di (b).3.

Affidabilità

La distribuzione binomiale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli2.html (5 di 7) [22/11/2001 17.48.59]

Page 189: Laboratorio virtuale di probabilità e statistica

La distribuzione binomiale si presenta spesso negli studi di affidabilità. Supponiamo cheun sistema sia formato da n componenti che funzionano indipendentemente l'unadall'altra. Ciascuna componente può essere funzionante, con probabilità p, o difettosa, conprobabiloità 1 - p. Le componenti rappresentano quindi prove Bernoulliane. Supponiamoora che il sistema, nel suo complesso, funzioni se e solo se almeno k delle n componentifunzionano. In termini di affidabilità un sistema di questo tipo è detto, a buona ragione,sistema k di n. La probabilità che il sistema funzioni correttamente è detta affidabilità delsistema.

38. Commenta la ragionevolezza dell'assunzione che le componenti si comportino inmodo Bernoulliano.

39. Prova che l'affidabilità di un sistema k di n è Rn,k(p) = P(X k) dove X hadistribuzione binomiale con parametri n e p.

40. Mostra che Rn,n(p) = pn. Un sistema n di n è detto sistema in serie.

41. Mostra che Rn,1(p) = 1 - (1 - p)n. Un sistema 1 di n è detto sistema parallelo.

42. Nell'esperimento binomiale della moneta, poni n= 10 e p = 0.9 e simula 1000replicazioni, aggiornando ogni 100. Calcola l'affidabilità empirica e confrontala col suovalore teorico in ciascuno dei casi seguenti:

Sistema 10 di 10 (in serie).1.

Sistema 1 di 10 (parallelo).2.

Sistema 4 di 10.3.

43. Considera un sistema formato da n = 4 componenti. Disegna il grafico di R4,1,R4,2, R4,3 e R4,4 sullo stesso piano cartesiano.

44. Un sistema n di 2n - 1 è detto sistema a maggioranza.

Calcola l'affidabilità di un sistema 2 di 3.1.

Calcola l'affidabilità di un sistema 3 di 5.2.

Per quali valori di p il sistema 3 di 5 è più affidabile di quello 2 di 3?3.

Disegna i grafici di R3,2 e R5,3 sullo stesso piano cartesiano.4.

45. Nell'esperimento binomiale della moneta, calcola l'affidabilità empirica, basandotisu 100 replicazioni, in ciascuno dei seguenti casi. Confronta i valori ottenuti con quelliteorici.

Sistema 2 di 3 con p = 0.31.

Sistema 3 di 5 con p = 0.32.

Sistema 2 di 3 con p = 0.83.

Sistema 3 di 5 con p = 0.84.

La distribuzione binomiale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli2.html (6 di 7) [22/11/2001 17.48.59]

Page 190: Laboratorio virtuale di probabilità e statistica

46. Prova che R2n - 1, n(1/2) = 1/2.

Laboratorio virtuale > Prove Bernoulliane > 1 [2] 3 4 5 6 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione binomiale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli2.html (7 di 7) [22/11/2001 17.48.59]

Page 191: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli speciali > A [B] C D E F G H

B. Prove Bernoulliane

Sommario

Introduzione1.

La distribuzione binomiale2.

La proporzione di successi3.

La distribuzione geometrica4.

La distribuzione binomiale negativa5.

La distribuzione multinomiale6.

Note conclusive7.

Applets

Esperimento della moneta●

Esperimento della moneta binomiale●

Esperimento temporale binomiale●

Esperimento della tavola di Galton●

Esperimento binomiale negativo●

Esperimento del problema dei punti●

Laboratorio virtuale > Modelli speciali > A [B] C D E F G HSommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Prove Bernoulliane

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/index.html [22/11/2001 17.49.01]

Page 192: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Il processo di Poisson > 1 2 3 [4] 5 6 7 8

4. La distribuzione di Poisson

La funzione di densità

Abbiamo mostrato che il k-esimo tempo di arrivo ha funzione di densità gamma conparametro di forma k e parametro di velocità r:

fk(t) = (rt)k - 1re-rt / (k - 1)!, t > 0.

Ricordiamo inoltra che almeno k arrivi si presentano nell'intervallo (0, t] se e solo se ilk-esimo arrivo si presenta prima di t:

Nt k se e solo se Tk t.

1. Usa l'integrazione per parti per mostrare che

P(Nt k) = (0, t] fk(s)ds = 1 - j = 0, ..., k - 1 exp(-rt) (rt)j / j!.

2. Usa il risultato dell'esercizio 1 per mostrare che la funzione di densità del numero diarrivi nell'intervallo (0, t] è

P(Nt = k) = e-rt (rt)k / k! per k = 0, 8, ...

La distribuzione corrispondente è detta distribuzione di Poisson con parametro rt e prendenome da Simeon Poisson.

3. Nell'esperimento di Poisson, modifica r e t con le barre a scorrimento e osserva laforma della funzione di densità. Con r = 2 e t = 3, simula 1000 replicazioni, aggiornandoogni 10, e osserva la convergenza delle frequenze relative alla funzione di densità.

La distribuzione di Poisson è una delle più importanti della teoria della probabilità. Ingenerale, una variabile casuale discreta N di un certo esperimento si dice averedistribuzione di Poisson con parametro c > 0 se ha funzione di densità

g(k) = P(N = k) = e-c ck / k! per k = 7, 6, ...

4. Prova che g è realmente una funzione di densità.

5. Mostra che P(N = n - 1) < P(N = n) se e solo se n < c

La distribuzione è quindi unimodale e la moda si ha al maggiore intero in c.

6. Supponi che le richieste a un server web seguano il modello di Poisson con velocitàr = 5 al minuto. Trova la probabilità che arrivino almeno 8 richieste in un periodo fi 2

La distribuzione di Poisson

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson4.html (1 di 5) [22/11/2001 17.49.09]

Page 193: Laboratorio virtuale di probabilità e statistica

minuti.

7. I difetti di fabbricazione in un certo tipo di cavo seguono il modello di Poisson convelocità 1.5 al metro. Trova la probabilità che ci siano non più di 4 difetti in un pezzo dicavo di 2 metri.

Momenti

Supponi che N abbia distribuzione di Poisson con parametro c. Gli esercizi seguentiindividuano media, varianza e funzione generatrice di probabilità di N.

8. Prova che E(N) = c

9. Prova che var(N) = c

10. Prova che E(uN) = exp[c(u - 1)] per s R.

Tornando al processo di Poisson, ne segue che

E(Nt) = rt, var(Nt) = rt.

Vediamo di nuovo che r può essere interpretato come velocità media di arrivo. In unintervallo di lunghezza t, ci si aspettano all'incirca rt arrivi.

11. Nell'esperimento di Poisson, modifica r e t con le barre a scorrimento e osserva laposizione e la dimensione della barra media/deviazione standard. Con r = 2 e t = 3, simula1000 replicazioni, aggiornando ogni 10, e osserva la convergenza dei momenti empirici ailoro valori teorici.

12. Supponi che le automobili arrivino a una certa stazione di servizio secondo ilmodello di Poisson, con una velocità di r = 4 all'ora. Trova media e deviazione standarddel numero di automobili in un periodo di 8 ore.

Incrementi stazionari e indipendenti

Vediamo ora cosa implicano le assunzioni rigenerative del modello di Poisson in terminidelle variabili di conteggio.

13. Mostra che, se s < t, allora Nt - Ns = numero di arrivo in (s, t]

Ricordiamo che l'assunzione di base è che il processo inizi al tempo s e che ilcomportamento dello stesso dopo s sia indipendente dal comportamento prima di s.

14. Dimostra che:

Nt - Ns ha la stessa distribuzione di Nt-s, ovvero di Poisson con parametro r(t - s).1.

Nt - Ns e Ns sono indipendenti.2.

15. Supponi che N e M siano variabili di Poisson indipendenti con parametri

La distribuzione di Poisson

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson4.html (2 di 5) [22/11/2001 17.49.09]

Page 194: Laboratorio virtuale di probabilità e statistica

rispettivamente c e d. Mostra che N + M ha distribuzione di Poisson con parametro c + d.

Fornisci una dimostrazione probabilistica, utilizzando le proprietà del processo diPoisson.

1.

Dimostralo utilizzando le funzioni di densità.2.

Dimostralo utilizzando le funzioni di densità generatrici dei momenti.3.

16. Nell'esperimento di Poisson, poni r = 1 e t = 3 e simula 1000 replicazioni,aggiornando ogni volta. Analizza empiricamente l'indipendenza delle variabili aleatorieN1 e N3 - N1 calcolando le frequenze relative appropriate.

Approssimazione alla normale

Notiamo ora che, per k = 1, 2, ...

Nk = N1 + (N2 - N1) + ··· + (Nk - Nk-1).

Le variabili casuali della somma di destra sono indipendenti e hanno ciascunadistribuzione di Poisson con parametro r.

17. Usa il teorema centrale limite per mostrare che la distribuzione della variabilestandardizzata riportata qui sotto converge alla distribuzione normale standardizzata altendere di k a infinito.

(Nk - kr) / (kr)1/2.

In termini più generali, il risultato vale anche se sostituiamo l'intero k con un realepositivo t.

18. Nell'esperimento di Poisson, poni r = 1 e t = 1. Aumenta r e t e osserva come ilgrafico della funzione di densità assume forma campanulare.

19. Nell'esperimento di Poisson, poni r = 5 e t = 4 e simula 1000 replicazioni,aggiornando ogni 100. Calcola e confronta le seguenti quantità:

P(15 N4 22).1.

La frequenza relativa dell'evento {15 N4 22}.2.

L'approssimazione normale a P(15 N4 22).3.

20. Supponi che le richieste che pervengono a un server web seguano il modello diPoisson con velocità r = 5 al minuto. Calcola l'approssimazione normale alla probabilitàche si presentino almeno 280 richieste in un periodo di un'ora.

Distribuzioni condizionate

21. Sia t > 0. Prova che la distribuzione condizionata di T1 dato Nt = 1 è uniforme su(0, t). Interpreta il risultato.

La distribuzione di Poisson

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson4.html (3 di 5) [22/11/2001 17.49.09]

Page 195: Laboratorio virtuale di probabilità e statistica

22. Più in generale, dato Nt = n, dimostra che la distribuzione condizionata di T1, ...,Tn è identica alla distribuzione delle statistiche d'ordine di un campione casuale didimensione n estratto dalla distribuzione uniforme su (0, t).

Nota che la distribuzione condizionata presentata nell'esercizio precedente è indipendentedalla velocità r. Tale risultato indica che, in un certo senso, il modello di Poisson riporta ladistribuzione più "casuale" di punti nel tempo.

23. Supponi che le richieste a un certo server web seguano il modello di Poisson, eche in un periodo di 5 minuti si abbia una richiesta. Trova la probabilità che la richiestasia arrivata nei primi tre minuti del periodo.

24. Nell'esperimento di Poisson, poni r = 1 e t = 1 e simula 1000 replicazioni,aggiornando ogni volta. Calcola le appropriate frequenze relative e analizzaempiricamente il risultato teorico dell'esercizio 5.

25. Sia 0 < s < t e sia n un intero positivo. Prova che la distribuzione condizionata diNs dato Nt = n è binomiale con parametri n e p = s/t. Nota che la distribuzionecondizionata è indipendente dalla velocità r. Interpreta il risultato.

26. Supponi che le richieste a un server web seguano il modello di Poisson, e che inun periodo di 5 minuti si abbiano 10 richieste. Trova la probabilità che almeno 4 richiestesiano arrivate nei primi 3 minuti del periodo.

Stima della velocità

In molti casi pratici, il parametro di velocità r del processo è ignoto e dev'essere stimatosulla base del numero di arrivi in un certo intervallo.

27. Prova che E(Nt / t) = r, per cui Nt / t è uno stimatore corretto per r.

Poiché lo stimatore è corretto, la varianza coincide con l'errore quadratico medio.

28. Prova che var(Nt / t) = r / t, per cui var(Nt / t) tende a 0 al tendere di t a infinito.

29. Nell'esperimento di Poisson, poni r = 3 e t = 5. Esegui 100 replicazioni,aggiornando ogni volta.

Per ogni replicazione, calcola la stima di r basata su Nt.1.

Calcola la media dei quadrati deli errori per le 100 replicazioni.2.

Confronta il risultato di (b) con la varianza trovata nell'esercizio 26.3.

30. Supponi che le richieste a un server web seguano il modello di Poisson convelocità ignota r al minuto. In un'ora, il server riceve 342 richieste. Stima r.

Laboratorio virtuale > Il processo di Poisson > 1 2 3 [4] 5 6 7 8

La distribuzione di Poisson

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson4.html (4 di 5) [22/11/2001 17.49.09]

Page 196: Laboratorio virtuale di probabilità e statistica

Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione di Poisson

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson4.html (5 di 5) [22/11/2001 17.49.09]

Page 197: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli speciali > A B C D [E] F G H

E. Il processo di Poisson

Sommario

Introduzione1.

La distribuzione esponenziale2.

La distribuzione gamma3.

La distribuzione di Poisson4.

Splitting5.

Analogie con le prove Bernoulliane6.

Processi di Poisson in più dimensioni7.

Note conclusive8.

Applets

Esperimento esponenziale●

Esperimento gamma●

Esperimento di Poisson●

Esperimento di Poisson di due tipi●

Processo di Poisson in due dimensioni●

Laboratorio virtuale > Modelli speciali > A B C D [E] F G HSommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Il processo di Poisson

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/index.html [22/11/2001 17.49.10]

Page 198: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Prove Bernoulliane > 1 2 [3] 4 5 6 7

3. La proporzione di successi

Supponiamo di nuovo che il nostro esperimento casuale consista nell'eseguire proveBernoulliane I1, I2, ... Ricordiamo che il numero di successi nelle prime n prove, Xn, hadistribuzione binomiale con parametri n e p. In questo paragrafo studieremo la variabilecasuale che indica la proporzione di successi nelle prime n prove:

Mn = Xn / n = (I1 + I2 + ··· + In) / n.

Notiamo che Mn assume i valori k / n dove k = 0, 1, ..., n.

La funzione di densità

È facile esprimere la funzione di densità della proporzione di successi Mn in termini dellafunzione di densità del numero di successi Xn:

1. Prova che

P(Mn = k / n) = C(n, k) pk (1 - p)n-k per k = 0, 1, ..., n.

2. Nell'esperimento binomiale della moneta, seleziona la proporzione di teste.Modifica n e p con le barre a scorrimento e osserva la forma della funzione di densità.Poni n = 20 e p = 0.3 ed esegui l'esperimento aggiornando ogni 10 replicazioni. Osserva laconvergenza delle frequenza relative alla funzione di densità.

Proprietà

La proporzione di successi può essere pensata anche come valore medio delle variabiliindicatore. In termini statistici, le variabili indicatore formano un campione casuale,poiché sono indipendenti e identicamente distribuite, e in questo contesto Mn è un casoparticolare di media campionaria. La proporzione di successi Mn è spesso utilizzata perstimare la probabilità di successo p quando essa è ignota. È insito al concetto stesso diprobabilità che, quando il numero delle prove è elevato, Mn sia prossimo a p. Laformulazione matematica di questo concetto è un caso particolare della legge dei grandinumeri.

3. Usa le proprietà fondamentali del valore atteso per mostrare che per ogni n,

E(Mn) = p.

In termini statistici, ciò significa che Mn è uno stimatore corretto per p.

4. Usa le proprietà fondamentali della varianza per dimostrare che

La proporzione di successi

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli3.html (1 di 4) [22/11/2001 17.49.16]

Page 199: Laboratorio virtuale di probabilità e statistica

var(Mn) = p(1 - p) / n.

Notiamo che, per dato p, var(Mn) tende a 0 al crescere a infinito del numero delle prove.Ciò significa che la stima migliora al crescere di n; in termini statistici, ciò è noto comeconsistenza.

5. Nell' esperimento binomiale della moneta, seleziona la proporzione di teste.Modifica n e p con la barra a scorrimento e osserva la forma della funzione di densità.Nota che al variare di n e p, la distribuzione di Mn è centrata in p, ma al crescere di ndiventa più concentrata attorno a p. Poni n = 50 e p = 0.5 ed esegui l'esperimentoaggiornando ogni 10 replicazioni. Osserva la convergenza della frequenza relativa allafunzione di densità.

6. Nell' esperimento binomiale della moneta, seleziona la proporzione di teste. Poni n =10 e p = 0.4. Simula 100 replicazioni, aggiornando ogni volta. Calcola la radice quadratadell'errore quadratico medio per tutte le replicazioni, nel caso in cui Mn sia usato perstimare p. Tale numero è misura della qualità della stima.

7. Nell' esperimento binomiale della moneta, seleziona la proporzione di teste. Poni n =10 e p = 0.4. Simula 100 replicazioni, aggiornando ogni volta. Calcola la radice quadratadell'errore quadratico medio per tutte le replicazioni, nel caso in cui Mn sia usato perstimare p. Confronta i risultati con quelli dell'esercizio precedente.

8. Sui dati sulla cicala, calcola la proporzione di femmine nel campione e laproporzione di femmine per ciascuna specie del campione. Pensi che queste proporzionicampionarie siano buone stime delle corrispondenti proporzioni nella popolazione?

9. Sui dati M&M, raggruppa i pacchetti per creare un campione ampio di M&Ms.Calcola la proporzione di M&Ms rosse. Pensi che questa proporzione campionaria sia unabuona stima della proporzione vera della popolazione?

Confronta il capitolo sulla stima intervallare per un diverso approccio al problema dellastima di p.

Approssimazione normale

Il teorema limite centrale si applica alla proporzione di successi esattamente come alnumero di successi.

10. Mostra che la distribuzione della variabile standardizzata

(Mn - p) / [p(1 - p) / n]1/2.

converge alla distribuzione normale standardizzata al crescere del numero delle prove

11. Nell'esperimento binomiale della moneta, seleziona la proporzione di teste. Poni n= 30, p = 0.6. Simula 1000 replicazioni, aggiornando ogni 100. Calcola e confronta i

La proporzione di successi

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli3.html (2 di 4) [22/11/2001 17.49.16]

Page 200: Laboratorio virtuale di probabilità e statistica

seguenti valori:

P(0.5 M30 0.7)1.

La frequenza relativa dell'evento {0.5 M30 0.7}2.

L'approssimazione normale a P(0.5 M30 0.7)3.

Un test d'ipotesi

A volta non siamo interessati a stimare p, ma a determinare se p è un certo valore oappartiene a un certo intervallo. In termini generici, prendiamo la decisione eseguendo nprove Bernoulliane, osservando il numero di successi e confrontando questa osservazionecon quanto ci si sarebbe aspettati dalla distribuzione binomiale, date le assunzioni su p. Intermini statistici, eseguiamo un test di ipotesi.

Per esempio, supponiamo di essere interessati a sapere se una moneta è bilanciata o no.Prenderemo la decisione basandoci su 10 lanci della moneta.

12. Mostra che 10 lanci della moneta produrranno tra 3 e 7 teste l'89% delle volte.

Pertanto possiamo decidere di definire la moneta bilanciata se il numero di teste è tra 3 e7. Se la moneta è davvero bilanciata, il test ci farà prendere la decisione corretta l'89%delle volte. L'11% delle volte concluderemo erroneamente che la moneta è sbilanciata; intermini statistici, si tratta di un errore di prima specie.

13. Supponi che la moneta abbia probabilità di testa p riportata qui sotto. Col testappena specificato, trova la probabilità di concludere correttamente che la moneta èsbilanciata. Trova inoltre la probabilità di concludere erroneamente che la moneta èbilanciata; in termini statistici, si parla di errore di seconda specie.

p = 0.61.

p = 0.72.

p = 0.83.

p = 0.94.

14. Nell'esperimento della moneta binomiale, poni n = 10. Per ciascuno dei seguentivalori di p, simula 100 replicazioni, aggiornando ogni volta. A ciascuna esecuzione,esegui il test di ipotesi. Calcola la frequenza relativa delle decisioni corrette e degli errori:

p = 0.51.

p = 0.62.

p = 0.73.

p = 0.74.

p = 0.9.5.

15. Un candidato a una carica pubblica afferma di essere il preferito dal 40% deglielettori. Su un sondaggio di 100 elettori, però, solo 30 sono a favore del candidato. Credi

La proporzione di successi

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli3.html (3 di 4) [22/11/2001 17.49.16]

Page 201: Laboratorio virtuale di probabilità e statistica

all'affermazione del candidato? Calcola l'approssimazione normale alla probabilità cheuna variabile binomiale con n = 100 e p = 0.4 produca 30 o meno successi.

Laboratorio virtuale > Prove Bernoulliane > 1 2 [3] 4 5 6 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La proporzione di successi

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli3.html (4 di 4) [22/11/2001 17.49.16]

Page 202: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Spazi di Probabilità > 1 2 3 4 [5] 6 7 8

5. Probabilità condizionata

Definizione

Al solito, iniziamo introducendo un esperimento casuale con spazio campionario S, emisura di probabilità P. Supponiamo inoltre di sapere che un certo evento B si èverificato. In genere, questa informazione dovrebbe alterare le probabilità che assegniamoagli altri eventi. In particolare, se A è un altro evento, allora A si verifica se e solo se siverificano sia A che B; di fatto, lo spazio campionario si è ridotto a B. Quindi, laprobabilità di A, data la conoscenza del fatto che B si è verificato, dovrebbe essere

proporzionale a P(A B). In ogni caso, la probabilità condizionata, dato il verificarsi diB dev'essere sempre una misura di probabilità, ovvero deve soddisfare gli assiomi diKolmogorov. Ciò fa sì che la costante di proporzionalità debba essere 1 / P(B). Pertanto,si giunge inesorabilmente alla seguente definizione:

Siano A ae B eventi di un esperimento casuale con P(B) > 0. La probabilità condizionatadi A dato B è definita come

P(A | B) = P(A B) / P(B).

Ciò si basa sulla definizione assiomatica di probabilità. Analizziamo ora il concetto diprobabilità condizionata a partire dalla nozione meno formale e più intuitiva di frequenzarelativa. Supponiamo quindi di replicare ripetutamente l'esperimento. Per un certo eventoC, sia Nn(C) il numero di volte che C si verifica nelle prime n prove.

Se Nn(B) è grande, la probabilità condizionata che A si sia verificato dato il verificarsi diB dev'essere prossima alla frequenza relativa condizionata di A dato B, ovvero lafrequenza relativa di A per le prove in cui B si è verificato:

Nn(A B) / Nn(B).

Ma per un'altra applicazione del concetto di frequenza relativa,

Nn(A B) / Nn(B) = [Nn(A B) / n] / [Nn(B) / n] P(A B) / P(B) as n .

che ci porta di nuovo alla medesima definizione.

In alcuni casi, le probabilità condizionate possono essere calcolate direttamente,riducendo effettivamente lo spazio campionario all'evento dato. In altri casi, la formulasopra è migliore.

Proprietà

1. Dimostra che P(A | B), in funzione di A e per B dato, è una misura di probabilità.

Probabilità condizionata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob5.html (1 di 9) [22/11/2001 17.49.29]

Page 203: Laboratorio virtuale di probabilità e statistica

L'esercizio 1 costituisce la proprietà più importante della probabilità condizionata, poichéindica che ogni risultato che vale per le misure di probabilità in generale vale anche per laprobabilità condizionata (almeno finché l'evento a cui si condiziona rimane fisso).

2. Supponi che A e B siano eventi di un esperimento casuale con P(B) > 0. Dimostrache:

Se B A allora P(A | B) = 1.1.

Se A B allora P(A | B) = P(A) / P(B).2.

Se A e B sono disgiunti allora P(A | B) = 0.3.

3. Supponi che A e B siano eventi di un esperimento casuale, ciascuno con probabilitàpositiva. Dimostra che

P(A | B) > P(A) P(B | A) > P(B) P(A B) > P(A)P(B)1.

P(A | B) < P(A) P(B | A) < P(B) P(A B) < P(A)P(B)2.

P(A | B) = P(A) P(B | A) = P(B) P(A B) = P(A)P(B)3.

Nel caso (a), A e B si dicono positivamente correlati. Intuitivamente, il verificarsi di unodei due eventi implica che l'altro è più probabile. Nel caso (b), A e B si dicononegativamente correlati. Intuitivamente, il verificarsi di uno dei due eventi implica chel'altro è meno probabile. Nel caso (c), A e B si dicono indipendenti. Intuitivamente, ilverificarsi di uno dei due eventi non modifica le probabilità dell'altro evento.

A volte le probabilità condizionate sono note e possono essere utilizzate per trovare leprobabilità di altri eventi.

4. Supponi che A1, A2, ..., An siano eventi di un esperimento casuale la cuiintersezione ha probabilità positiva. Prova la regola del prodotto della probabilità.

P(A1 A2 ··· An) = P(A1)P(A2 | A1)P(A3 | A1 A2) ··· P(An | A1

A2 ··· An-1)

La regola del prodotto è molto utile negli esperimenti formati da stadi dipendenti, dove Aiè un evento dell'i-esimo stadio. Confronta la regola del prodotto della probabilità con laregola del prodotto del calcolo combinatorio.

Esercizi

5. Supponi che A e B siano eventi di un esperimento con P(A) = 1 / 3, P(B) = 1 / 4,

P(A B) = 1 / 10. Trova:

P(A | B)1.

P(B | A)2.

P(Ac | B)3.

Probabilità condizionata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob5.html (2 di 9) [22/11/2001 17.49.29]

Page 204: Laboratorio virtuale di probabilità e statistica

P(Bc | A)4.

P(Ac | Bc)5.

6. Considera l'esperimento consistente nel lanciare due dadi equilibrati e registrare lasequenza di punteggi (X1, X2). Sia Y la somma dei punteggi. Per ciascune delle seguenticoppie di eventi, trova la probabilità di ciascun evento e la probabilità condizionata diogni evento dato l'altro. Determina se gli eventi sono correlati postiviamente,negativamente oppure sono indipendenti.

{X1 = 3}, {Y = 5}1.

{X1 = 3}, {Y = 7}2.

{X1 = 2}, {Y = 5}3.

{X1 = 2},{X1 = 3}4.

La correlazione non è transitiva. Nota per esempio, nell'esercizio precedente, che {X1 =3}, {Y = 5} sono positivamente correlati, {Y = 5}, {X1 = 2} sono positivamente correlati,ma {X1 = 3}, {X1 = 2} sono negativamente correlati.

7. Nell'esperimento dei dadi, poni n = 2 e simula 500 replicazioni. Calcola leprobabilità condizionate empiriche corrispondenti alle condizioni dell'esercizioprecedente.

8. Considera l'esperimento delle carte che consiste nell'estrarre 2 carte da un mazzostandard e registrare la sequenza di carte estratte. Per i = 1, 2, sia Qi l'evento in cui la cartai-esima è una regina e Hi l'evento in cui la carta i-esima è di cuori. Per ciascuna delleseguenti coppie di eventi, calcola la probabilità di ogni evento e la probabilitàcondizionata di ciascun evento dato l'altro. Determina se gli eventi sono correlatipostiviamente, negativamente oppure sono indipendenti.

Q1, H1.1.

Q1, Q2.2.

Q2, H2.3.

Q1, H2.4.

9. Nell'esperimento delle carte, poni n = 2 e simula 500 replicazioni. Calcola leprobabilità condizionate empiriche corrispondenti alle condizioni dell'esercizioprecedente.

10. Considera l'esperimento delle carte con n = 3 cards. Trova la probabilità deiseguenti eventi:

Tutte e tre le carte sono di cuori1.

Le prime due carte sono di cuori e la terza è di picche.2.

La prima e la terza carta sono di cuori e la seconda di picche.3.

Probabilità condizionata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob5.html (3 di 9) [22/11/2001 17.49.29]

Page 205: Laboratorio virtuale di probabilità e statistica

11. Nell'esperimento delle carte, poni n = e simula 1000 replicazioni. Calcola laprobabilità empirica di ciascun evento dell'esercizio precedente e confronta con laprobabilità teorica.

12. In un certo gruppo di persone, il 30% fuma e l'8% ha una certa malattia cardiaca.Inoltre, il 12% di coloro che fumano hanno la malattia.

Qual'è la percentuale di soggetti del gruppo che fumano e hanno la malattia?1.

Quale percentuale di ammalati sono anche fumatori?2.

Il fumo e la malattia sono negativamente correlati, positivamente correlati oindipendenti?

3.

13. Supponi che A, B e C siano eventi di un esperimento casuale con P(A | C) = 1 / 2,

P(B | C) = 1 / 3, e P(A B | C) = 1 / 4. Trova:

P(A Bc | C)1.

P(A B | C)2.

P(Ac Bc | C).3.

14. Supponi che A e B siano eventi di un esperimento casuale con P(A) = 1 / 2, P(B) =1 /3 , P(A | B) = 3 / 4. Trova

P(A B).1.

P(A B).2.

P(B Ac).3.

P(B | A).4.

15. Sui dati M&M, trova la probabilità empirica che un pacchetto contenga almeno 10pastiglie rosse, dato un peso del pacchetto maggiore di 48 grammi.

16. Sui dati della cicala,

Trova la probabilità empirica che una cicala pesi almeno 0.25 grammi dato il sessomasachile.

1.

Trova la probabilità empirica che una cicala pesi almeno 0.25 grammi data laspecie tredecula.

2.

Distribuzioni condizionate

Supponiamo, di nuovo, di avere un esperimento con spazio campionario S e misura diprobabilità P. Supponiamo che X sia una variabile casuale a valori in T relativaall'esperimento. Ricorda che la distribuzione di probabilità di X è la misura di probabilitàsu T data da

Probabilità condizionata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob5.html (4 di 9) [22/11/2001 17.49.29]

Page 206: Laboratorio virtuale di probabilità e statistica

P(X B) per B T.

Analogamente, se A è un evento con probabilità positiva, la distribuzione condizionata diX dato A è la misura di probabilità su T data da

P(X B | A) per B T.

17. Considera l'esperimento consistente nel lanciare due dadi equilibrati e registrare lasequenza dei punteggi (X1, X2). Sia Y la somma dei punteggi. Trova la distribuzionecondizionata di (X1, X2) dato Y = 7.

18. Supponi che il tempo X (in minuti) necessario per eseguire una certa operazionesia distribuito uniformemente sull'intervallo (15, 60).

Trova la probabilità che l'operazione richieda più di 30 minuti.1.

Dato che l'operazione non è terminata dopo 30 minuti, trova la probabilità che essarichieda più di altri 15 minuti.

2.

Trova la distribuzione condizionata di X dato X > 30.3.

19. Ricorda che l'esperimento della moneta di Buffon consiste nel lanciare una moneta

di raggio r 1/2 su un pavimento coperto di mattonelle quadrate di lato 1. Si registrano lecoordinate (X, Y) del centro della moneta, relativamente ad assi che passano attraverso ilcentro del quadrato e paralleli ai lati.

Trova P(Y > 0 | X < Y)1.

Trova la distribuzione condizionata di (X, Y), sapendo che la moneta non hatoccato i lati del quadrato.

2.

20. Replica l'esperimento della moneta di Buffon 500 volte. Calcola la probabilitàempirica che Y > 0 dato X < Y, e confronta col risultato dell'esercizio precedente.

La legge delle probabilità totali e il teorema di Bayes

Supponiamo che {Aj: j J} sia una collezione numerabile di eventi che partiziona lospazio campionario S. Sia B un altro evento, e supponiamo di conoscere P(Aj) e P(B | Aj)

per ogni j J.

21. Prova la legge delle probabilità totali:

P(B) = j P(Aj) P(B | Aj).

22. Prova il teorema di Bayes, che prende nome da Thomas Bayes: per k J,

P(Ak | B) = P(Ak)P(B | Ak) / j P(Aj) P(B | Aj).

Probabilità condizionata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob5.html (5 di 9) [22/11/2001 17.49.29]

Page 207: Laboratorio virtuale di probabilità e statistica

Nel contesto del teorema di Bayes, P(Aj) è la probabilità a priori di Aj e P(Aj | B) è ladistribuzione a posteriori di Aj. Studieremo delle versioni più generali della legge delleprobabilità totali e del teorema di Bayes nel capitolo sulle distribuzioni.

23. Nell'esperimento dado-moneta, si lancia un dado equilibrato e poi una monetabilanciata il numero di volte indicato dal dado

Trova la probabilità che tutte le monete siano testa.1.

Sapendo che tutte le monete sono testa, trova la probabilità che il punteggio deldado sia stato i per ogni i = 1, 2, 3, 4, 5, 6.

2.

24. Simula l'esperimento dado-moneta 200 volte.

Calcola la probabilità empirica che tutte le monete siano testa e confrontala con laprobabilità dell'esercizio precedente.

1.

Per i = 1, 2, ..., 6, calcola la probabilità empirica dell'evento in cui il punteggio deldado è stato i sapendo che tutte le monete sono testa. Confronta col risultatodell'esercizio precedente.

2.

25. Supponi che un sacchetto contenga 12 monete: 5 sono equilibrate, 4 sonosbilanciate con probabilità di testa 1/3 e 3 hanno due teste. Si sceglie a caso una monetadal sacchetto e la si lancia.

Trova la probabilità che esca testa.1.

Sapendo che è uscita testa, trova la probabilità condizionata di ciascun tipo dimoneta.

2.

Confronta gli esercizi 23 e 25. Nell'esercizio 23, si lancia una moneta con probabilitàprefissata di testa un numero casuale di volte. Nell'esercizio 25, si lancia una moneta conprobabilità casuale di testa un numero prefissato di volte.

26. L'esperimento moneta-dado consiste nel lanciare una moneta equilibrata; se escecroce, si lancia un dado equilibrato, se esce testa si lancia un dado piatto uno-sei (1 e 6hanno probabilità 1/4, mentre 2, 3, 4, 5 hanno probabilità 1/8).

Trova la probabilità che il punteggio del dado sia i, per i = 1, 2, ..., 6.1.

Sapendo che il punteggio del dado è 4, trova la probabilità condizionata che escatesta e la probabilità condizionata che esca croce.

2.

27. Simula l'esperimento moneta-dado 500 volte.

Calcola la probabilità empirica dell'evento in cui il punteggio del dado è i perciascun i, e confrontala con la probabilità dell'esercizio precedente

1.

Calcola la probabilità empirica dell'evento in cui esce testa, sapendo che ilpunteggio del dado è 4, e confrontala con la probabilità dell'esercizio precedente.

2.

28. Una fabbrica ha tre linee produttive che producono chip di memoria. La primalinea produce il 50% dei chip e ha un tasso di pezzi difettosi del 4%, la seconda lineaproduce il 30% dei chip e ha un tasso di pezzi difettosi del 5% mentre la terza linea

Probabilità condizionata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob5.html (6 di 9) [22/11/2001 17.49.29]

Page 208: Laboratorio virtuale di probabilità e statistica

produce il 20% dei chip e ha un tasso di pezzi difettosi del 1%. Si estrae casualmente unchip.

Trova la probabilità che il chip sia difettoso1.

Sapendo che il chip è difettoso, trova la probabilità condizionata di ciascuna lineaproduttiva.

2.

29. La forma più comune di daltonismo (dicromatismo) è una patologia ereditarialegata al sesso causata da un difetto sul cromosoma X; è quindi più comune nei maschiche nelle femmine: il 7% dei maschi sono daltonici, mentre solo lo 0.5% delle femmine losono. (Per ulteriori approfondimenti sulle patologie ereditarie legate al sesso, confronta latrattazione dell'emofilia.) In un certo gruppo di persone, il 50% sono maschi e il 50%femmine.

Trova la percentuale di daltonici del gruppo.1.

Trova la percentuale di soggetti daltonici maschi.2.

30. Un'urna contiene inizialmente 6 palline rosse e 4 palline verdi. Si sceglie a casouna pallina e poi la si rimette nell'urna insieme ad altre due palline dello stesso colore; ilprocesso viene poi ripetuto. Questo è un esempio di schema dell'urna di Pólya, che prendeil nome da George Pólya.

Trova la probabilità che le prime 2 palline siano rosse e che la terza sia verde.1.

Trova la probabilità che la seconda pallina sia rossa.2.

Trova la probabilità che la prima pallina sia rossa sapendo che la seconda è rossa.3.

31. L'urna 1 contiene 4 palline rosse e 6 verdi, mentre l'urna 2 contiene 7 palline rossee 3 verdi. Si sceglie a caso un urna e se ne estrae una pallina.

Trova la probabilità che la pallina sia verde1.

Sapendo che la pallina è verde, trova la probabilità condizionata di aver sceltol'urna 1.

2.

32. L'urna 1 contiene 4 palline rosse e 6 verdi, mentre l'urna 2 contiene 6 palline rossee 3 verdi. Si sceglie a caso una pallina dall'urna 1 e la si insierisce nell'urna 2. Si estraequindi una pallina dall'urna 2.

Trova la probabilità che la pallina estratta dall'urna 2 sia verde.1.

Sapendo che la pallina estratta dall'urna 2 è verde, trova la probabilità condizionatache la pallina estratta dall'urna 1 fosse verde.

2.

Test diagnostici

Supponiamo di avere un esperimento casuale con un evento di interesse A. Ovviamente,quando si esegue l'esperimento l'evento A può verificarsi oppure no. In ogni caso, nonpossiamo osservare direttamente il verificarsi o il non verificarsi di A. Disponiamo invecedi un test progettato per indicare l'occorrenza dell'evento A; il test può essere o positivoper A o negativo per A. Il test ha inoltre un elemento di aleatorietà, e può dare indicazionierrate. Presentiamo alcuni esempi delle situazioni che vogliamo rappresentare:

Probabilità condizionata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob5.html (7 di 9) [22/11/2001 17.49.29]

Page 209: Laboratorio virtuale di probabilità e statistica

L'evento in cui una persona ha una certa malattia, il test è un esame del sangue.●

L'evento in cui una donna è incinta, il test è un test di gravidanza casalingo.●

L'evento in cui una persona mente, il test è una macchina della verità.●

L'evento in cui un apparecchio è difettoso, il test è il rapporto di un sensore.●

L'evento in cui un missile si trova in una certa regione dello spazio aereo, il testsono i segnali radar.

Sia T l'evento in cui il test è positivo per il verificarsi di A. La probabilità condizionataP(T | A) è detta sensitività del test. La probabilità complementare

P(Tc | A) = 1 - P(T | A)

è la probabilità di un falso negativo. La probabilità condizionata P(Tc | Ac) è dettaspecificità del test. La probabilità complementare

P(T | Ac) = 1 - P(Tc | Ac)

è la probabilità di un falso positivo. In molti casi, sensitività e specificità del test sononote e sono un risultato della costruzione dello stesso. In ogni caso, l'utente del test èinteressato alle probabilità condizionate opposte:

P(A | T), P(Ac|Tc).

33. Usa il teorema di Bayes per dimostrare che

P(A | T) = P(T | A)P(A) / [P(T | A)P(A) + P(T | Ac)P(Ac)].

Per fare un esempio concreto, supponiamo che la sensitività del test sia 0.99 e laspecificità sia 0.95. A occhio, il test sembra buono.

34. Trova P(A | T) in funzione di p = P(A). Mostra che il grafico ha la seguente forma:

35. Dimostra che P(A | T) in funzione di P(A) ha i valori riportati nella seguentetabella:

P(A) P(A | T)0.001 0.019

Probabilità condizionata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob5.html (8 di 9) [22/11/2001 17.49.29]

Page 210: Laboratorio virtuale di probabilità e statistica

0.01 0.1670.1 0.6880.2 0.8320.3 0.895

Il valore modesto di P(A | T) per valori piccoli di P(A) cattura l'attenzione. La morale,ovviamente, è che P(A | T) dipende anche da P(A), non solo dalla sensitività e specificitàdel test. Inoltre, il confronto corretto è P(A | T) con P(A), come nella tabella, non P(A | T)con P(T | A).

Laboratorio virtuale > Spazi di Probabilità > 1 2 3 4 [5] 6 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Probabilità condizionata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob5.html (9 di 9) [22/11/2001 17.49.29]

Page 211: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Il processo di Poisson > 1 [2] 3 4 5 6 7 8

2. La distribuzione esponenziale

L'assunzione di base relativa ai processi di Poisson è che il comportamento di tali processidopo un arrivo dev'essere indipendente dal comportamento prima dell'arrivo eprobabilisticamente analogo al processo originario (rigenerazione).

I tempi tra gli arrivi

In particolare, l'assunzione di rigenerazione significa che i tempi che intercorrono tra gliarrivi, detti anche tempi interarrivo, devono essere variabili casuali indipendenti eidenticamente distribuite. Formalmente, i tempi interarrivo sono definiti come segue:

X1 = T1, Xk = Tk - Tk-1 per k = 2, 3, ...

dove Tk è il tempo a cui si verifica il k-esimo arrivo. Assumeremo che

P(Xi > t) > 0 per ogni t > 0.

Ora, vogliamo anche che la rigenerazione si verifichi a un tempo fissato t. In particolare,se il primo arrivo non si è ancora verificato in t, allora il tempo rimanente primadell'arrivo ha la medesima distribuzione del primo tempo di arrivo stesso. Tale proprietà èdetta assenza di memoria, e può essere espressa in termini del generico tempo interarrivoX come

P(X > t + s) | X > s) = P(X > t) per tutti gli s, t 0.

Distribuzione

Sia G la funzione di ripartizione della coda destra di di X:

G(t) = P(X > t), t 0.

1. Prova che la proprietà di assenza di memoria è equivalente alla legge degliesponenti:

G(t + s) = G(t)G(s) per qualsiasi s, t 0.

2. Prova che le uniche soluzioni all'equazione funzionale dell'esercizio 1 continue dadestra sono le funzioni esponenziali. Sia c = G(1). Mostra quindi che

G(n) = cn se n è un intero positivo.1.

G(1/n) = c1/n se n è un intero positivo.2.

G(m/n) = cm/n se me n sono interi positivi.3.

G(t) = ct per ogni t > 0.4.

La distribuzione esponenziale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson2.html (1 di 3) [22/11/2001 17.49.34]

Page 212: Laboratorio virtuale di probabilità e statistica

Nel contesto dell'esercizio 2, sia r = -ln(c). Allora r > 0 (poiché 0 < c < 1) so

G(t) = P(X > t) = e-rt, t 0.

Quindi X ha distribuzione continua con funzione di ripartizione data da

F(t) = P(X t) = 1 - G(t) = 1 - e-rt, t 0.

3. Prova che la funzione di densità di X è

f(t) = re-rt, t 0.

Una variabile casuale con tale densità è detta avere distribuzione esponenziale conparametro di velocità r. Il reciproco 1 / r è detto parametro di scala.

4. Mostra direttamente che la densità esponenziale è una funzione di densità diprobabilità.

5. Nell'esperimento esponenziale, modifica r con la barra a scorrimento e osserva comecambia la forma della funzione di densità di probabilità. Con r = 2, simula 1000replicazioni, aggiornando ogni 10, e osserva la convergenza della funzione di densitàempirica alla funzione di densità di probabilità.

6. Nell'esperimento esponenziale, poni r = 1 e simula 1000 replicazioni, aggiornandoogni volta. Calcola le frequenze relative appropriate per analizzare empiricamente laproprietà di assenza di memoria.

P(X > 3 | X > 1) = P(X > 2).

7. Prova che la funzione quantile di X è

F-1(p) = -ln(1 - p) / r per 0 < p < 1.

In particolare la mediana di X si ha a ln(2) / r, il primo quartile a [ln(4) - ln(3)] / r, e ilterzo a ln(4) / r.

8. Supponi che la lunghezza di una telefonata (in minuti) si distribuitaesponenzialmente con parametro di velocità r = 0.2.

Trova la probabilità che la telefonata duri da 2 a 7 minuti.1.

Trova mediana, primo e terzo quartile e scarto interquartile della lunghezza dellatelefonata.

2.

9. Supponi che la durata di un certo apparecchio elettronico (in ore) sia distribuitaesponenzialmente con parametro di velocità r = 0.001.

Trova la probabilità che l'apparecchio duri almeno 2000 ore.1.

Trova mediana, primo e terzo quartile e scarto interquartile della durata.2.

Momenti

La distribuzione esponenziale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson2.html (2 di 3) [22/11/2001 17.49.34]

Page 213: Laboratorio virtuale di probabilità e statistica

I seguenti esercizi riportano media, varianza, e funzione generatrice dei momenti delladistribuzione esponenziale.

10. Prova che E(X) = 1 / r.

11. Prova che var(X) = 1 / r2.

12. Prova che E[exp(uX)] = r / (r - u) per u < r.

Il parametro r è detto a volte velocità del processo di Poisson. In media, passano 1 / runità di tempo tra gli arrivi, per cui tali arrivi si presentano con una velocità media di r perunità di tempo. Notiamo inoltre che la mediana è sempre minore della media nelladistribuzione esponenziale:

ln(2) / r < 1 / r.

13. Nell'esperimento esponenziale, modifica r con la barra a scorrimento e osservacome cambiano posizione e dimensione della barra media/deviazione standard. Con r =0.5, simula 1000 replicazioni, aggiornando ogni 10, e osserva la convergenza dei momentiempirici ai loro valori teorici.

14. Supponi che il tempo che intercorre tra le richieste a un server web (misurato insecondi) abbia distribuzione esponenziale con parametro di velocità 2.

Trova media e deviazione standard del tempo che intercorre tra le richieste.1.

Trova la probabilità che il tempo tra due richieste sia minore di 0.5 secondi.2.

Trova mediana, primo e terzo quartile e scarto interquartile del tempo tra lerichieste.

3.

15. Supponi che la durata (in unità di 100 ore) X di un fusibile sia distribuitaesponenzialmente con P(X > 10) = 0.8.

Trova il parametro di velocità.1.

Trova media e deviazione standard.2.

Trova mediana, primo e terzo quartile e scarto interquartile della durata del fusibile.3.

16. La posizione (misurata in centimetri) X del primo settore difettoso di un nastromagnetico ha distribuzione esponenziale con media 100.

Trova il parametro di velocità.1.

Trova la probabilità che X < 200 dato X > 150.2.

Trova la deviazione standard.3.

Trova mediana, primo e terzo quartile e scarto interquartile della durata dellaposizione.

4.

Laboratorio virtuale > Il processo di Poisson > 1 [2] 3 4 5 6 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione esponenziale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson2.html (3 di 3) [22/11/2001 17.49.34]

Page 214: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli geometrici > 1 2 [3] 4 5

3. Paradosso di Bertrand

Termini del problema

Il paradosso di Bertrand consiste nel trovare la probabilità che una "corda aleatoria" diuna circonferenza sia più lunga della lunghezza di uno dei lati del triangolo equilateroinscritto. Il problema prende il nome dal matematico francese Joseph Louis Bertrand, cheanalizzò il problema nel 1889.

Come vedremo, risultano esserci (almeno) due soluzioni al problema, ed esse dipendonodall'interpretazione che si dà alla nozione di "corda aleatoria". La mancanza di unarisposta univoca era al tempo considerata un paradosso, perché si pensava (ingenuamente,a ben vedere), che dovesse esserci un'unica risposta naturale.

1. Replica l'esperimento di Bertrand 100 volte, aggiornando ogni volta, per ciascunodei seguenti modelli. Non preoccuparti del loro significato esatto, ma cerca di trovaredelle differenze di comportamento nei risultati

Distanza uniforme1.

Angolo uniforme2.

Formulazione matematica

Per formulare il problema in termini matematici, assumiamo (0, 0) come centro dellacirconferenza e assumiamo raggio unitario. Queste assunzioni non comportano perdita digeneralità, poiché introducono un sistema di misurazione relativo al centro dellacirconferenza e col raggio della stessa come unità di misura. Consideriamo ora una cordasulla circonferenza. Ruotando quest'ultima, possiamo assumere che uno dei punti dellacorda sia (1,0) e l'altro (X, Y) dove Y > 0. Possiamo allora specificare completamente lacorda tramite uno delle seguenti quantità:

La distanza (perpendicolare) D dal centro del cerchio al punto medio della corda.●

L'angolo A formato dall'asse delle x e dalla linea tra il centro della circonferenza eil punto medio della corda.

La coordinata orizzontale X.●

Nota che 0 D 1, 0 A / 2, -1 X 1.

Paradosso di Bertrand

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon3.html (1 di 4) [22/11/2001 17.49.40]

Page 215: Laboratorio virtuale di probabilità e statistica

2. Prova che D = cos(A).

3. Mostra che X = 2D2 - 1.

4. Mostra che Y = 2D (1 - D2)1/2.

5. Dimostra che le relazioni degli esercizi 2 e 3 sono invertibili e trova le relazioniinverse.

Se la corda è generata in maniera aleatoria, D, A, X, e Y risultano essere variabili casuali.Alla luce dell'esercizio 5, specificare la distribuzione di una qualunque delle variabili D,A o X determina completamente la distribuzione di tutte e quattro le variabili.

6. Mostra che A è anche l'angolo formato dalla corda e la retta tangente al cerchio in(1, 0).

Consideriamo ora il triangolo equilatero inscritto nella circonferenza in modo che uno deivertici sia (1, 0). Considera la corda definita dal lato superiore del triangolo.

7. Prova che, per tale corda, angolo, distanza e coordinate sono date da:

a = / 31.

d = 1/22.

x = -1/23.

y = (3/4)1/2.4.

Paradosso di Bertrand

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon3.html (2 di 4) [22/11/2001 17.49.40]

Page 216: Laboratorio virtuale di probabilità e statistica

Supponiamo ora di scegliere una corda in maniera probabilistica.

8. Utilizzando l'esercizio 7, mostra che la lunghezza della corda è maggiore dellalunghezza del lato del triangolo equilatero inscritto se e solo se si verificano le seguenticondizioni:

0 < D < 1/21.

/ 3 < A < / 22.

-1 < X < -1/23.

Quando un oggetto è generato "a caso" alla sequenza di variabili "naturali" che determinal'oggetto deve essere assegnata un'appropriata distribuzione. Le coordinate del centrodella moneta sono una sequenza di questo tipo nel contesto dell'esperimento della monetadi Buffon; le variabili distanza e angolo sono una sequenza di questo tipo nell'esperimentodell'ago di Buffon. Il fatto cruciale nel paradosso di Bertrand è che la distanza D el'angolo A sembrano essere entrambe variabili naturali per individuare la corda, ma siottengono modelli diversi a seconda della variabile alla quale si assegna distribuzioneuniforme.

Modello a distanza uniforme

Supponi che D sia distribuita uniformemente sull'intervallo (0, 1).

9. Prova che la soluzione del paradosso di Bertrand è

P(D < 1/2) = 1/2

10. Nell' esperimento di Bertrand, seleziona il modello a distanza uniforme. Simula1000 replicazioni, aggiornando ogni 10. Osserva la convergenza della funzione difrequenza relativa sulla corda alla probabilità vera.

11. Usa la formula del cambiamento di variabile per mostrare che l'angolo A hafunzione di densità

g(a) = sin(a), 0 < a < /2

Paradosso di Bertrand

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon3.html (3 di 4) [22/11/2001 17.49.40]

Page 217: Laboratorio virtuale di probabilità e statistica

12. Usa la formula del cambiamento di variabile per mostrare che X ha funzione didensità

h(x) = (1/4) [(x + 1) / 2]-1/2, -1 < x < 1.

Nota che A e X non sono distribuite uniformemente.

Modello con angolo uniforme

Supponi che A sia distribuita uniformemente sull'intervallo (0, /2).

13. Prova che la soluzione del problema di Bertrand è

P(A > / 3) = 1/3

14. Nell'esperimento di Bertrand, seleziona il modello con angolo uniforme. Simula1000 replicazioni, aggiornando ogni 10. Osserva la convergenza della funzione difrequenza relativa sulla corda alla probabilità vera.

15. Usa la formula del cambiamento di variabile per mostrare che la distanza D hafunzione di densità

f(d) = 2 / [ (1 - d2)1/2], 0 < d < 1.

16. Usa la formula del cambiamento di variabile per mostrare che X ha funzione didensità

h(x) = 1 / [ (1 - x2)1/2], -1 < x < 1.

Nota che D e X non sono uniformemente distribuite.

Esperimenti fisici

17. Supponi di generare una corda casuale lanciando una moneta di raggio 1 su untavolo rigato con linee parallele a distanza 2 l'una dall'altra. Quale dei modelli (onessuno?) si può applicare a questo esperimento?

18. Supponi di attaccare un ago al bordo di un disco di raggio 1. Si genera una cordaaleatoria facendo girare l'ago. Quale dei modelli (o nessuno?) si può applicare a questoesperimento?

19. Supponi di costruire un canalino sul bordo di un disco di raggio 1. Gettare unapallina nel canale genera un punto casuale sulla circonferenza, per cui una corda aletoriasi può generare lanciando due volte la pallina. Quale dei modelli (o nessuno?) si puòapplicare a questo esperimento?

Laboratorio virtuale > Modelli geometrici > 1 2 [3] 4 5Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Paradosso di Bertrand

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon3.html (4 di 4) [22/11/2001 17.49.40]

Page 218: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Il processo di Poisson > 1 2 [3] 4 5 6 7 8

3. La distribuzione gamma

La funzione di densità

Sappiamo che i tempi interarrivo X1, X2, ... sono variabili casuali continue e indipendentil'una dall'altra, ognuna con funzione di densità di probabilità esponenziale:

f(t) = re-rt, t 0.

Il tempo di arrivo k-esimo è semplicemente la somma dei primi k tempi interarrivo:

Tk = X1 + X2 + ··· + Xk.

Ne segue che il k-esimo tempo di arrivo è una variabile casuale continua e che la suafunzione di densità è la k-convoluzione di f.

1. Mostra che la funzione di densità del k-esimo tempo di arrivo è

fk(t) = (rt)k - 1re-rt / (k - 1)!, t > 0.

Tale distribuzione è detta gamma con parametro di forma k e parametro di velocità r. Dinuovo, 1 / r è detto parametro di scala. Una versione più generale della distribuzionegamma, che consente valori non interi di k, è analizzata nel capitolo sulle distribuzioninotevoli.

Notiamo che, poiché i tempi di arrivo sono continui, la probabilità di un arrivo in ciascunospecifico istante è 0. Possiamo quindi interpretare Nt come numero di arrivi in (0, t).

2. Nell'esperimento gamma, modifica r e k con le barre a scorrimento e osserva comevaria la forma della funzione di densità. Poni r = 2 e k = 3, e simula 1000 replicazioni,aggiornando ogni 10, osservando la convergenza delle densità empiriche alla funzione didensità teorica.

3. Disegna il grafico della funzione di densità dell'esercizio 1. Mostra che la moda siha a (k - 1) / r.

4. Supponi che delle automobili arrivino a una stazione di servizio seguendo ilmodello di Poisson, con velocità r = 3 all'ora. Relativamente a un dato istante di inizio,trova la probabilità che la seconda automobile arrivi dopo più di un'ora.

5. I difetti in un certo tipo di cavo seguono il modello di Poisson, con velocità 1 ogni100 metri. Trova la probabilità che il quinto difetto si trovi tra i 450 e i 550 metri.

Momenti

La distribuzione gamma

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson3.html (1 di 3) [22/11/2001 17.49.44]

Page 219: Laboratorio virtuale di probabilità e statistica

Media, varianza e funzione generatrice dei momenti di Tk si trovano utilizzando i risultatigià noti per la distribuzione esponenziale.

6. Prova che E(Tk) = k / r.

7. Dimostra che var(Tk) = k / r2.

8. Nell'esperimento gamma, modifica r e k con le barre a scorrimento e osserva comevariano posizione e dimensione della barra media/deviazione standard. Poni r = 2 e k = 3,e simula 1000 replicazioni, aggiornando ogni 10, osservando la convergenza dei momentiempirici ai loro valori teorici.

9. Mostra che E[exp(uTk)] = [r / (r - u)]k per u < r.

10. Supponi che le richieste che pervengono a un server web seguano il modello diPoisson con velocità r = 5 al minuto. Relativamente a un dato tempo di inizio, calcolamedia e deviazione standard del tempo di arrivo della decima richiesta.

11. Supponi che Y abbia distribuzione gamma con media 40 e deviazione standard 20.Trova k e r.

Somme di variabili gamma indipendenti

12. Supponi che V abbia distribuzione gamma con parametro di forma j e parametro divelocità r, che W abbia distribuzione gamma con parametro di forma k e parametro divelocità r e che V e W siano indipendenti. Prova che V + W ha distribuzione gamma conparametro di forma j + k e parametro di velocità r.

Dimostralo analiticamente, utilizzando le funzioni generatrici dei momenti.1.

Dimostralo probabilisticamente, basandoti sulle proprietà del processo di Poisson.2.

Approssimazione alla normale

13. Nell'esperimento gamma, modifica r e k con le barre a scorrimento e osserva comevaria la forma della funzione di densità. Poni r = 2 e k = 5, e simula 1000 replicazioni,aggiornando ogni 10, osservando la convergenza delle densità empiriche alla funzione didensità teorica.

Anche se non puoi scegliere un k maggiore di 5, nota che la funzione di senistà del tempodi arrivo k-esimo assume forma campanulare al crescere di k (per r dato). Questa èun'ulteriore applicazione del teorema limite centrale, poiché il k-esimo tempo di arrivo èla somma di k varaibili casuali indipendenti e identicamente distribuite (i tempiinterarrivo).

14. Usa il teorema limite centrale per mostrare che la distribuzione della variabilestandardizzata riportata qui sotto converge alla distribuzione normale standardizzata altendere a infinito di k

La distribuzione gamma

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson3.html (2 di 3) [22/11/2001 17.49.44]

Page 220: Laboratorio virtuale di probabilità e statistica

(Tk - k / r) / (k1/2 / r) = (rTk - k) / k1/2.

15. Nell'esperimento gamma, poni k = 5 e r = 2. Simula 1000 replicazioni,aggiornando ogni volta, e calcola e confronta le seguenti quantità:

P(1.5 T5 3)1.

La frequenza relativa dell'evento {1.5 T5 3}2.

L'approssimazione normale a (1.5 T5 3).3.

16. Supponi che gli incidenti a un certo incrocio si verifichino seguendo il modello diPoisson, con velocità di 8 all'anno. Calcola l'approssimazione normale alla probabilità cheil decimo incidente (relativamente a un dato tempo di inizio) si verifichi entro due anni.

Stima della velocità

In molti casi pratici, il parametro di velocità r del processo è ignoto e dev'essere stimatosulla base dei tempi di arrivo osservati.

17. Prova che E(Tk / k) = 1 / r, per cui Tk / k è uno stimatore corretto per 1 / r.

Poiché lo stimatore è corretto, la varianza coincide con l'errore quadratico medio.

18. Prova che var(Tk / k) = 1 / (kr2), per cui var(Tk / k) tende a 0 al tendere di k ainfinito.

Nota che Tk / k = (X1 + X2 + ··· + Xk) / k dove Xi è l'i-esimo tempo interarrivo. Quindi ilnostro stimatore per 1 / r può essere interpretato come media campionaria dei tempiinterarrivo. Uno stimatore naturale della velocità stessa è k / Tk. Ma questo stimatoretende a sovrastimare r.

19. Usa la disuguaglianza di Jensen per mostrare che E(k / Tk) r.

20. Supponi che le richieste a un certo server web seguano il modello di Poisson. Apartire da mezzogiorno di un certo giorno, si registrano le richieste; la centesima arriva amezzogiorno e un quarto. Stima la velocità del processo.

Laboratorio virtuale > Il processo di Poisson > 1 2 [3] 4 5 6 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione gamma

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson3.html (3 di 3) [22/11/2001 17.49.44]

Page 221: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 15

9. La distribuzione beta

Introdurremo in questo paragrafo una famiglia di distribuzioni a due parametri diparticolare importanza in probabilità e statistica.

La funzione beta

La funzione beta B(a, b) è definita per a > 0 e b > 0 come

B(a, b) = (0, 1) ua - 1(1 - u)b-1 du.

1. Mostra che B(a, b) è finita per a > 0 e b > 0 percorrendo i seguenti passi:

Spezza l'integrale in due parti, da 0 a 1/2 2 da 1/2 a 1.1.

Se 0 < a < 1, l'integrale è improprio in u = 0, ma (1 - u)b - 1 è limitato in (0, 1 / 2).2.

Se 0 < b < 1, l'integrale è improprio in u = 1, ma ua - 1 è limitato in (1 / 2, 1).3.

2. Mostra che

B(a, b) = B(b, a) per a > 0, b > 0.1.

B(a, 1) = 1 / a.2.

3. Dimostra che la funzione beta può essere scritta in termini della funzione gammacome segue:

B(a, b) = gam(a) gam(b) / gam(a + b).

Suggerimento: Esprimi gam(a + b) B(a, b) come integrale doppio rispetto a x e y, con x >0 e 0 < y < 1. Usa la trasformazione w = xy, z = x - xy e il teorema del cambiamento divariabile per integrali multipli. Tale trasformazione è una funzione biiettiva da (x, y) su z> 0, w > 0; il Jacobiano della trasformazione inversa vale 1 / (z + w). Mostra chel'integrale trasformato vale gam(a) gam(b).

4. Mostra che, se j e k sono interi positivi, allora

B(j, k) = (j - 1)!(k - 1)! / (j + k -1)!.

5. Mostrare che B(a + 1, b) = [a / (a + b)] B(a, b).

6. Si mostri che B(1/2, 1/2) = .

Riportiamo qui sotto un grafico di B(a, b) sulla regione 0 < a < 10, 0 < b < 10.

La distribuzione beta

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special9.html (1 di 4) [22/11/2001 17.49.50]

Page 222: Laboratorio virtuale di probabilità e statistica

La funzione di densità beta

7. Mostra che f è una funzione di densità di probabilità per ogni a > 0 e b > 0:

f(u) = ua - 1 (1 - u)b - 1 / B(a, b), 0 < u < 1.

una distribuzione con questa densità è detta distribuzione beta con parametri a e b. Ladistribuzione beta è utile per modellare probabilità e proporzioni, in particolare in ambitoBayesiano. Pur possedendo solo due paraemtri, questa distribuzione contempla una riccavarietà di forme:

8. Disegna il grafico della funzione di densità beta. Osserva le differenze qualitativenella forma della funzione di densità nei seguenti casi:

0 < a < 1, 0 < b < 11.

a = 1, b = 1 (distribuzione uniforme)2.

a = 1, 0 < b < 13.

0 < a < 1, b = 14.

0 < a < 1, b > 15.

a > 1, 0 < b < 16.

a > 1, b = 17.

a = 1, b > 18.

a > 1, b > 1. Mostra che la moda è a (a - 1) / (a + b -2)9.

9. Nell'appletvariabile casuale, seleziona la distribuzione beta. Poni i parametri aciascuna delle combinazioni proposte nell'esercizio 1. In ognuno di questi casi, osserva laforma della funzione di densità e simula 1000 replicazioni con frequenza di

La distribuzione beta

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special9.html (2 di 4) [22/11/2001 17.49.50]

Page 223: Laboratorio virtuale di probabilità e statistica

aggiornamento di 10. Osserva la convergenza della funzione di densità empirica a quellateorica.

Funzione di ripartizione

In alcuni casi particolari, la funzione di ripartizione e la funzione quantile possono essereespresse in forma chiusa.

10. Per a > 0 e b = 1, mostra che

F(x) = xa per 0 < x < 1.1.

F -1(p) = p1/a per 0 < p < 1.2.

11. Per a = 1 e b > 0, dimostrare che

F(x) = 1 - (1 - x)b per 0 < x < 1.1.

F -1(p) = 1 - (1 - p)1/b per 0 < p < 1.2.

In generale sussiste un'interessante relazione tra le funzioni di ripartizione beta e ladistribuzione binomiale.

12. Sia n dato. Sia Fp la funzione di ripartizione di una binomiale con parametri n e p esia Gk la funzione di ripartizione di una beta con parametri n - k + 1 e k. Si dimostri che

Fp(k - 1) = Gk(1 - p).

Suggerimento: Si esprima Gk(1 - p) come integrale della funzione di densità delladistribuzione beta e si integri per parti.

13. Nell'applet quantile, seleziona la distribuzione beta. Modifica i parametri e osservala forma delle funzioni di densità e di ripartizione. In ognuno dei seguenti casi, trovamediana, primo e terzo quartile e scarto interquartile. Disegna il boxplot

a = 1, b = 11.

a = 1, b = 32.

a = 3, b = 13.

a = 2, b = 44.

a = 4, b = 25.

a = 4, b = 46.

Momenti

I momenti della distribuzione beta sono esprimibili facilmente in termini della funzionebeta.

14. Supponi che U abbia distribuzione beta con parametri a e b. Dimostra che

E(Uk) = B(a + k, b) / B(a, b).

La distribuzione beta

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special9.html (3 di 4) [22/11/2001 17.49.50]

Page 224: Laboratorio virtuale di probabilità e statistica

15. Supponi che U abbia distribuzione beta con parametri a e b. Dimostra che

E(U) = a / (a + b)1.

var(U) = ab / [(a + b)2 (a + b + 1)]2.

16. Nell'appletvariabile casuale, seleziona la distribuzione beta. Poni i parametri aciascuna delle combinazioni proposte nell'esercizio 1. In ognuno di questi casi, osserva laforma della barra media/deviazione standard e simula 1000 replicazioni con frequenza diaggiornamento di 10. Osserva la convergenza dei momenti empirici a quelli teorici.

Transformazioni

17. Si supponga che X abbia distribuzione gamma con parametri a e r, che Y abbiadistribuzione gamma con parametri b e r e che X e Y siano indipendenti. Si mostri che U= X / (X + Y) ha distribuzione beta con parametri a e b.

18. Supponi che U abbia distribuzione beta con parametri a e b. Mostra che 1 - U hadistribuzione beta con parametri b e a.

19. Supponi che X abbia distribuzione F con m gradi di libertà al numeratore e n gradidi libertà al denominatore. Dimostra che

U = (m / n)X / [1 + (m / n)X]

ha distribuzione beta con parametri a = m / 2 e b = n / 2.

20. Supponiamo che X abbia distribuzione beta con parametri a > 0 e b > 0. Mostrache tale distribuzione è una famiglia esponenziale a due parametri con parametri naturali a- 1 e b - 1, e statistiche naturali ln(X) e ln(1 - X).

La distribuzione beta è inoltre la distribuzione delle statistiche d'ordine di un campionecasuale estratto da una distribuzione uniforme.

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione beta

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special9.html (4 di 4) [22/11/2001 17.49.50]

Page 225: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15

12. La distribuzione di Pareto

La distribuzione di Pareto è asimmmetrica e con code spesse e si usa in certi casi permodellare la distribuzione del reddito.

La distribuzione di Pareto semplice

1. Sia F(x) = 1 - 1 / xa per x 1, dove a > 0 è un parametro. Mostra che F è unafunzione di ripartizione.

La distribuzione individua dalla funzione di ripartizione presentata nell'esercizio 1 è dettadistribuzione di Pareto con parametro di forma a, e prende il nome dall'economistaVilfredo Pareto.

2. Mostra che la funzione di densità f è

f(x) = a / xa + 1 per x 1.

3. Disegna il grafico della funzione di densità f. Mostra in particolare che

f(x) è decrescente per x 1.1.

f decresce più velocemente al crescere di a.2.

Il valore modale è x = 1 per ogni a.

4. Nell'applet variabile casuale, seleziona la distribuzione di Pareto. Modifica ilparametro di forma e osserva la forma e la posizione della funzione di densità. Ponendo a= 3, simula 1000 replicazioni, con frequenza di aggiornamento 10 e osserva laconvergenza della densità empirica a quella teorica.

5. Mostra che la funzione quantile è

F-1(p) = 1 / (1 - p)1/a per 0 < p < 1.

6. Trova la mediana e il primo e il terzo quartile della distribuzione di Pareto conparametro di forma a = 3. Calcola lo scarto interquartile.

7. Nell'applet quantile, seleziona la distribuzione di Pareto. Modifica il parametro diforma e osserva la forma e la posizione delle funzioni di densità e di ripartizione .Ponendo a = 2, calcola la mediana e il primo e terzo quartile.

La distribuzione di Pareto ha code spesse. Pertanto, media, varianza, e gli altri momentisono finiti solo se il parametro di forma a è grande abbastanza.

8. Supponi che X abbia distribuzione di Pareto con parametro di forma a. Dimostra che

La distribuzione di Pareto

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special12.html (1 di 3) [22/11/2001 17.49.55]

Page 226: Laboratorio virtuale di probabilità e statistica

E(Xn) = a / (a - n) se n < a.1.

E(Xn) = se n a.2.

9. Usa il risultato dell'esercizio precedente per mostrare che

E(X) = a / (a - 1) se a > 1.1.

var(X) = a / [(a - 1)2(a - 2)] se a > 2.2.

10. Nell'applet variabile casuale, seleziona la distribuzione di Pareto. Modifica ilparametro di forma e osserva la dimensione e la posizione della barra media/deviazionestandard. In ciascuno dei casi seguenti, simula 1000 replicazioni aggiornando ogni 10 eosserva il comportamento dei momenti empirici:

a = 11.

a = 22.

a = 33.

La distribuzione di Pareto generalizzata

Analogamente a quanto avviene per altre distribuzioni, spesso la distribuzione di Paretoviene generalizzata aggiungendo un parametro di scala. Supponiamo che Z abbiadistribuzione di Pareto con parametro di forma a. Se b > 0, la variabile casuale X = bZ hadistribuzione di Pareto con parametro di forma a e parametro di scala b. Osserva che Xassume valori nell'intervallo (b, ).

Risultati analoghi a quelli presentati poc'anzi seguono da semplici proprietà delletrasformazioni di scala.

11. Mostra che la funzione di densità è

f(x) = aba / xa + 1 for x b.

12. Mostra che la funzione di ripartizione è

F(x) = 1 - (b / x)a for x b.

13. Mostra che la funzione quantile è

F-1(p) = b / (1 - p)1/a per 0 < p < 1.

14. Mostra che i momenti sono dati da

E(Xn) = bn a / (a - n) if n < a.1.

E(Xn) = se n a.2.

15. Mostra che media e varianza valgono

E(X) = ba / (a - 1) se a > 1.1.

var(X) = b2a / [(a - 1)2(a - 2)] se a > 2.2.

La distribuzione di Pareto

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special12.html (2 di 3) [22/11/2001 17.49.55]

Page 227: Laboratorio virtuale di probabilità e statistica

16. Supponi che il reddito di una certa popolazione abbia distribuzione di Pareto conparametro di forma 3 e parametro di scala 1000.

Trova la percentuale della popolazione che ha un redddito compreso tra 2000 e4000.

1.

Trova il reddito mediano.2.

Trova il primo e il terzo quartile e lo scarto interquartile.3.

Trova il reddito medio.4.

Trova la deviazione standard del reddito.5.

Trova il 90esimo percentile.6.

Trasformazioni

L'esercizio seguente ribadisce il fatto che b è un parametro di scala.

17. Si supponga che X abbia distribuzione di Pareto con parametro di forma a eparametro di scala b. Si dimostri che, se c > 0, allora cX ha distribuzione di Pareto conparametro di forma a e parametro di scala bc.

18. Si supponga che X abbia distribuzione di Pareto con parametro di forma a. Sidimostri che 1/X ha distribuzione beta con parametri a e b = 1.

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione di Pareto

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special12.html (3 di 3) [22/11/2001 17.49.55]

Page 228: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15

5. La distribuzione t

In questo paragrafo studieremo una distribuzione di particolare importanza in statistica,che si presenta in particolare nello studio della versione standardizzata della mediacampionaria quando la distribuzione sottostante è normale.

La funzione di densità t

Si abbia una variabile casuale Z con distribuzione normale standardizzata, e una V condistribuzione chi-quadro con n gradi di libertà, e si supponga che queste due variabilicasuali siano indipendenti. Sia

T = Z / (V / n)1/2.

Nell'esercizio seguente, si dovrà mostrare che T ha funzione di densità di probabilità

f(t) = C(n) (1 + t2 / n)-(n + 1)/2 per t appartenente a R

dove la costante di normalizzazione C(n) è data da

C(n) = gam[(n + 1) / 2] / [(n )1/2 gam(n / 2)].

1. Dimostrare che T ha la funzione di densità riportata sopra percorrendo i seguentipassi.

Mostrare in primo luogo che la distribuzione condizionata di T dato V = v ènormale con media 0 e varianza n / v.

1.

Usare (a) per trovare la distribuzione congiunta di (T, V).2.

Integrare la densità congiunta in (b) rispetto a v per trovare la densità di T.3.

La distribuzione di T è detta distribuzione t di Student con n gradi di libertà. Ladistribuzione è definita per ogni n > 0, ma in pratica si considerano interessanti solo ivalori interi positivi di n. Questa distribuzione fu introdotta da William Gosset, chepubblicava sotto lo pseudonimo di Student. Oltre a riportare la dimostrazione, l'esercizio 1rappresenta anche una maniera interessante di vedere la distribuzione t: essa si presentaquando la varianza di una distribuzione a media 0 è in qualche modo casualizzata.

2. Nell'applet variabile casuale, seleziona la distribuzione t di Student. Modifica n eosserva la forma della funzione di densità di probabilità. Poni n = 5 e simula 1000replicazioni con frequenza di aggiornamento 10. Osserva la convergenza della funzione didensità empirica a quella teorica.

3. Traccia il grafico della funzione di densità t definita nell'esercizio 1. Mostra inparticolare che

f(t) è simmetrica attorno t = 0.1.

La distribuzione t

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special5.html (1 di 3) [22/11/2001 17.49.59]

Page 229: Laboratorio virtuale di probabilità e statistica

f(t) è crescente per t < 0 e decrescente per t > 02.

f(t) 0 per t e per t -3.

f(t) è concava verso l'alto per t < -an e t > an; f(t) e concava verso il basso per -an < t

< an, con an = [n / (n + 2)]1/2.

4.

Dall'esercizio 3, segue che la distribuzione t è unimodale, con moda 0.

4. La distribuzione t con 1 grado di libertà è detta distribuzione di Cauchy, in onore diAugustin Cauchy. Mostra che la sua funzione di densità è

f(t) = 1 / [ (1 + t2)], t appartenente a R.

La funzione di ripartizione e la funzione quantile non sono esprimibili in forma chiusatramite le funzioni elementari. Valori approssimati di queste funzioni di possono otteneredalla tavola della distribuzione chi-quadro e dall'applet quantile.

5. Nell'applet quantile, seleziona la distribuzione di Student. Modifica i gradi di libertàe osserva la forma della funzione di densità e della funzione di ripartizione. Trova, inciascuno dei casi seguenti, la mediana, il primo e il terzo quartile e lo scarto interquartile.

n = 11.

n = 22.

n = 53.

n = 104.

Momenti

Sia T t-distribuita con n gradi di libertà. La rappresentazione data nell'esercizio 1 puòessere utilizzata per trovare media, varianza e gli altri momenti di T.

6. Dimostrare che

E(T) = 0 se n > 1.1.

E(T) non esiste se 0 < n 1.2.

In particolare la distribuzione di Cauchy non ha valore atteso.

7. Si dimostri che

var(T) = n / (n - 2) se n > 2.1.

var(T) = se 1 < n 2.2.

var(T) non esiste se 0 < n 1.3.

8. Nell'applet varaibile casuale, seleziona la distribuzione t di Student. Modifica n eosserva la posizione e la dimensione della barra media/deviazione standard. Per i seguentivalori di n, esegui 1000 replicazioni con frequenza di aggiornamento 10. Confronta ilcomportamento dei momenti empirici coi risultati teorici ottenuti negli esercizi 5 e 6.

La distribuzione t

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special5.html (2 di 3) [22/11/2001 17.49.59]

Page 230: Laboratorio virtuale di probabilità e statistica

n = 3.1.

n = 2.2.

n = 1.3.

9. Dimostrare che

E(Tk) = 0 se k è dispari e n > k.1.

E(Tk) = gam[(k + 1) / 2]{gam[(n - k) / 2]}k/2 / [gam(1 / 2)gam(n / 2)] se k è pari e n> k.

2.

E(Tk) = if 0 < n k.3.

Approssimazione alla normale

Avrai probabilmente notato che, almeno qualitativamente, la funzione di densità delladistribuzione t di Student è molto simile a quella della normale standardizzata. Lasomiglianza è anche quantitativa:

10. Usa un teorema limite fondamentale dell'analisi per mostrare che, dato t,

f(t) exp(-t2 / 2) / (2 )1/2 per n .

Nota che la funzione di destra è la funzione di densità di probabilità della distribuzionenormale standardizzata.

11. Mostra, coi dati dell'esercizio 1, che, usando la legge forte dei grandi numeri

V / n 1 per n ,1.

T Z per n ,2.

con probabilità 1.

La distribuzione t ha code più spesse, e di conseguenza è più appuntita in confronto allanormale standardizzata.

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione t

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special5.html (3 di 3) [22/11/2001 17.49.59]

Page 231: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni notevoli > 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15

2. La distribuzione normale

La distribuzione normale ricopre un ruolo di particolare rilievo nel calcolo delleprobabilità e nella statistica, in larga parte grazie al teorema limite centrale, uno deiteoremi fondamentali che fanno da ponte tra queste due discipline. In più, come avremomodo di osservare, la distribuzione normale possiede molte utili proprietà matematiche.Ladistribuzione normale è nota anche come distribuzione Gaussiana, in onore di CarlFriedrich Gauss, che è stato tra i primi a utilizzarla.

La distribuzione normale standardizzata

Una variabile casuale Z ha distribuzione normale standardizzata se la sua funzione didensità di probabilità g è data da

g(z) = exp(-z2 / 2) / [(2 )1/2] per z appartenente a R.

1. Si mostri che la densità di probabilità della distribuzione normale standardizzata èuna funzione di densità di probabilità valida verificando che

C = R exp(-z2 / 2)dz = (2 )1/2.

Suggerimento: Esprimere C2 come integrale doppio su R2 e convertirlo in coordinatepolari.

2. Utilizzare semplici tecniche di studio di funzioni per disegnare la funzione di densitàdella distribuzione normale standardizzata. Mostrare in particolare che

g è simmetrica attorno a z = 0.1.

g è crescente per z < 0 e decrescente per z > 0.2.

La moda è a z = 0.3.

g è concava verso l'alto per z < -1 e per z > 1 e concava verso il basso per -1 < z <1.

4.

I punti di flesso di g sono a z = ±1.5.

g(z) 0 per z e per z -6.

3. Nell'esperimento variabile casuale, selezionare la distribuzione normale e mantenerele impostazioni predefinite. Osservare la forma e la posizione della funzione di densitàdella normale standardizzata. Effettuare 1000 replicazioni aggiornando la visualizzazioneogni 10 giri e osservare la convergenza della funzione di densità empirica a quella teorica.

La funzione di ripartizione normale standardizzata G e la funzione quantile G-1 nonpossono essere espresse in forma chiusa in termini di funzioni elementari. Pertanto, valori

La distribuzione normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special2.html (1 di 5) [22/11/2001 17.50.11]

Page 232: Laboratorio virtuale di probabilità e statistica

approssimati di queste funzioni possono essere ottenuti dalla tavola della distribuzionenormale standardizzata e dall'applet quantile.

4. Utilizzare la simmetria per mostrare che

G(-z) = 1 - G(z) per ogni z appartenente a R.1.

G-1(p) = -G-1(1 - p) per ogni p appartenente a (0, 1).2.

La mediana è 0.3.

5. Nell'applet quantile , selezionare la distribuzione normale standardizzata

Osservare la forma della funzione di densità e della funzione di ripartizione.1.

Trovare il primo e il terzo quartile.2.

Calcolare lo scarto interquartile.3.

6. Usare l' applet quantile per trovare i quantile dei seguenti ordine della distribuzionenormale standardizzata:

p = 0.001, p = 0.9991.

p = 0.05, p = 0.952.

p = 0.10, p = 0.903.

La distribuzione normale generalizzata

La distribuzione normale generalizzata è la famiglia di posizione e scala associata alladistribuzione normale standardizzata. Pertanto le proprietà delle funzioni di densità e diripartizione si ricavano semplicemente dai risultati generali presentati per le famiglie diposzione e scala.

7. Mostrare che la distribuzione normale con parametro di posizione µ appartenente aR e parametro di scala d > 0 ha funzione di densità di probabilità f data da

f(x) = exp[-(x - µ)2 / (2d2)] / [(2 )1/2d], per x appartenente a R.

8. Disegnare la funzione di densità della normale con parametro di posizione µ eparametro di scala d. Mostrare in particolare che

f è simmetrica attorno a x = µ.1.

f è crescente x < µ e decrescente per x > µ.2.

La moda è a x = µ.3.

f è concava verso l'alto per x < µ - d e per x > µ + d e concava verso il basso per µ -d < x < µ + d.

4.

I punti di flesso di f sono a x = µ ± d.5.

f(x) 0 per x e per x -6.

9. Nell'applet variabile casuale, selezionare la distribuzione normale. Modificare iparametri e osservare la forma e la posizione della funzione di densità. Scegliere dei

La distribuzione normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special2.html (2 di 5) [22/11/2001 17.50.11]

Page 233: Laboratorio virtuale di probabilità e statistica

parametri e replicare 1000 volte, aggiornando ogni 10 replicazioni e osservando laconvergenza della densità empirica alla funzione di densità teorica.

Sia F la funzione di ripartizione della distribuzione normale con parametro di posizione µe parametro di scala d, e come sopra, sia G la funzione di ripartizione della normalestandardizzata.

10. Mostrare che

F(x) = G[(x - µ) / d] per x appartenente a R.1.

F-1(p) = µ + d G-1(p) per p appartenente a (0, 1).2.

La mediana è µ.3.

11. Nell'applet quantile, selezionare la distribuzione normale. Modificare i parametri eosservare la forma delle funzioni di densità e di ripartizione.

Momenti

Le più importanti proprietà della distribuzione normale si ottengo più facilmenteutilizzando la funzione generatrice dei momenti.

12. Si abbia Z con distribuzione normale standardizzata. Mostrare che la funzionegeneratrice dei momenti di Z è data da

E[exp(tZ)] = exp(t2 / 2) per t appartenente a R.

Suggerimento: Nell'integrale per E[exp(tZ)], completa il quadrato in z e osserva lafunzione di densità di una normale.

13. Supponiamo che X abbia distribuzione normale con parametro di posizione µ eparametro di scala d. Usa il risultato dell'esercizio precedente per mostrare che la funzionegeneratric edei momenti di X è data da

E[exp(tX)] = exp(µt + d2t2 / 2) per t appartenente a R.

Come la notazione stessa suggerisce, i parametri di posizione e scala sono anche,rispettivamente, la media e la deviazione standard

14. Supponiamo che X abbia distribuzione normale con parametro di posizione µ eparametro di scala d. Mostrare che

E(X) = µ1.

var(X) = d2.2.

In generale, possiamo calcolare tutti i momenti centrati di X:

15. Supponiamo che X abbia distribuzione normale con parametro di posizione µ eparametro di scala d. Dimostrare che, per k = 1, 2, ...

E[(X - µ)2k] = (2k)!d2k / (k!2k).1.

E[(X - µ)2k - 1] = 02.

La distribuzione normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special2.html (3 di 5) [22/11/2001 17.50.11]

Page 234: Laboratorio virtuale di probabilità e statistica

16. Nella simulazione variabile casuale, seleziona la distribuzione normale. Modificala media e la deviazione standard e osserva l'ampiezza e la posizione della barramedia/deviazione standard. Coi parametri selezionati, simula 1000 replicazioniaggiornando ogni 10 giri e osserva la convergenza dei momenti empirici a quelli teorici.

L'esercizio seguente riporta la skewness e la curtosi della distribuzione normale.

17. Sia X distribuita normalmente con media µ e deviazione standard d. Mostrare che

skew(X) = 0.1.

kurt(X) = 3.2.

Trasformazioni

La famiglia di distribuzioni normali soddisfa due proprietà molto importanti: l'invarianzarispetto alle trasformazioni lineari e l'invarianza rispetto alla somma di variabiliindipendenti. La prima proprietà è di fatto una conseguenza del fatto che la distribuzionenormale è una famiglia di posizione e scala. Le dimostrazioni sono semplici se si utilizzala funzione generatrice dei momenti.

18. Sia X distribuita normalmente con media µ e varianza d2. Se a e b sono costanti e aè diverso da zero, si dimostri che aX + b è distribuita normalmente con media aµ + b evarianza a2d2.

19. Dimostrare i seguenti assunti:

Se X è distribuita normalmente con media µ e deviazione standard d, allora Z = (X- µ) / d è una normale standardizzata.

1.

Se Z è una normale standardizzata e se µ e d > 0 sono costanti, allora X = µ + dZ hadistribuzione normale con media µ e deviazione standard d.

2.

20. Sia X distribuita normalmente con media µ1 e varianza d12, Y distribuita

normalmente con media µ2 e varianza d22, e siano X e Y indipendenti. Si dimostri che X +

Y ha distribuzione normale con

E(X + Y) = µ1 + µ2.1.

var(X + Y) = d12 + d2

2.2.

Il risultato dell'esercizio precedente può essere generalizzato al caso in cui si sommano nvariabili indipendenti e normali. Il risultato importante è che la somma è sempre normale;le formule per la media e la varianza valgono in generale per la somma di variabili casualiindipendenti.

21. Supponiamo che X abbia distribuzione normale con media µ e varianza d2.Dimostra che questa distribuzione è una famiglia esponenziale a due parametri conparametri naturali µ / d2 e -1 / 2d2, e statistiche naturali X e X2.

Esercizi numerici

La distribuzione normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special2.html (4 di 5) [22/11/2001 17.50.11]

Page 235: Laboratorio virtuale di probabilità e statistica

22. Supponiamo che il volume di birra in una bottiglia di una certa marca siadistribuito normalmente con media 0.5 litri e deviazione standard 0.01 litri.

Trova la probabilità che la bottiglia contenga almeno 0.48 litri.1.

Trova il voume corrispondente al 95esimo percentile.2.

23. Una barra metallica è progettata per essere inserita in un foro circolare in una certalinea di produzione. Il raggio della barra è distribuito normalmente con media 1 cm edeviazione standard 0.002 cm; il raggio del foro è distribuito normalmente con media 1.01cm e deviazione standard 0.003 cm. I processi produttivi per la barra e il foro sonoindipendenti. Trova la probabilità che la barra sia troppo larga per il foro.

24. Il peso di una pesca proveniente da un certo frutteto è distribuito normalmente conmedia 8 once e deviazione standard di un oncia. Trova la probabilità che il pesocomplessivo di 5 pesche superi le 45 once.

Laboratorio virtuale > Distribuzioni notevoli > 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special2.html (5 di 5) [22/11/2001 17.50.11]

Page 236: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli speciali > [A] B C D E F G H

A. Modelli geometrici

Sommario

Problema della moneta di Buffon1.

Problema dell'ago di Buffon2.

Paradosso di Bertrand3.

Triangoli aleatori4.

Note conclusive5.

Applets

Esperimento della moneta di Buffon●

Esperimento dell'ago di Buffon●

Esperimento di Bertrand●

Esperimento del triangolo●

Laboratorio virtuale > Modelli speciali > [A] B C D E F G HSommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Modelli geometrici

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/index.html [22/11/2001 17.50.13]

Page 237: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Statistica > A [B] C D E

B. Campioni casuali

Sommario

Introduzione1.

Media campionaria e legge dei grandi numeri2.

Frequenze relative e distribuzioni empiriche3.

Varianza campionaria4.

Teorema limite centrale5.

Proprietà dei campioni normali6.

Statistiche d'ordine7.

Grafici quantile-quantile8.

Covarianza e correlazione campionaria9.

Applets

Istogramma interattivo●

Istogramma interattivo con grafico degli errori●

Dadi●

Media campionaria●

Statistiche d'ordine●

Esperimento quantile-quantile●

Dispersione interattiva●

Citazione

Ci sono tre tipi di bugie: bugie, fandonie e statistica. Attribuita a Benjamin Disraeliin Autobiografia di Mark Twain.

Laboratorio virtuale > Statistica > A [B] C D ESommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Campioni casuali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/index.html [22/11/2001 17.50.14]

Page 238: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Rosso e nero > 1 2 [3] 4 5

3. Gioco aggressivo

Ricordiamo che, nel caso di gioco aggressivo, il giocatore punta a ciascuna prova la suaintera ricchezza o, se è minore, la quantità di denaro necessaria per raggiungere laricchezza obiettivo. Siamo interessati alla probabilità che il giocatore raggiunga l'obiettivoe al numero atteso di prove. Il primo fatto interessante è che solo il rapporto tra ricchezzainiziale e ricchezza obiettivo è rilevante, al contrario di quanto accade nel caso di giocoprudente.

1. Supponi che il giocatore giochi aggressivamente con una ricchezza iniziale pari a x euna ricchezza obiettivo a. Dimostra che, per ogni c > 0, il processo cXi, i = 0, 1, 2, ... è ilprocesso della ricchezza per il gioco aggressivo con ricchezza iniziale cx e ricchezzaobiettivo ca.

Grazie al risultato dell'esercizio 1, conviene utilizzare la ricchezza obiettivo come unitàmonetaria e permettere di avere ricchezze iniziali sia razionali che irrazionali. Lo spaziodelle ricchezze è quindi [0, 1].

Probabilità di vincita

Indicheremo la probabilità che il giocatore raggiunga a = 1 partendo da x in [0, 1] conF(x). Per l'esercizio 1, la probabilità che il giocatore raggiunga un altro valore qualsiaasia, partendo da x in [0, a], è F(x/a).

2. Condizionando all'esito della prima prova, mostra che F soddisfa l'equazionefunzionale

F(x) = pF(2x) per x in [0, 1 / 2], F(x) = p + qF(2x - 1) per x in [1 / 2, 1]

e che F soddisfa le condizioni di limite F(0) = 0, F(1) = 1.

Espansioni binarie

Il fulcro della nostra analisi sarà la rappresentazione in forma binaria della ricchezzainiziale. L'espansione binaria di x in [0, 1) è

x = u1 / 2 + u2 / 22 + u3 / 23 + ···

dove ui appartiene a {0, 1} per ogni i. Tale rappresentazione è unica a parte il caso in cuix è un razionale binario della forma

x = k / 2n dove n = 1, 2, ... e k = 1, 2, ... 2n - 1.

Il più piccolo valore possibile di n in questa rappresentazione (dopo aver semplificato), èdetto rango di x. Per un razionale binario x di rango n, useremo la rappresentazionestandard, dove

Gioco aggressivo

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack3.html (1 di 6) [22/11/2001 17.50.24]

Page 239: Laboratorio virtuale di probabilità e statistica

un = 1 e ui = 0 per i > n.

Il rango può essere esteso a tutti i numeri in [0, 1) ponendo a 0 il rango di 0 (0 èconsiderato anche un binario razionale) e ponendo a infinito il rango di un irrazionale.

Definiamo quindi le seguenti funzioni di x in [0, 1):

ui(x) = i-esima coordinata nell'espansione binaria di x●

zi(x) = k - [u0(x) + u1(x) + ··· + uk(x)] = numero di zeri nelle prime k cifre binarie.●

n(x) = rango di x.●

3. Prova che

ui(2x) = ui + 1(x) se x in (0, 1 / 2), ui(2x - 1) = ui + 1(x) se x in [1 / 2, 0)

La probabilità di vincita vista da un'altra angolazione

4. Supponi che il giocatore parta con una ricchezza pari a x in (0, 1). Mostra che ilgiocatore prima o poi raggiunge l'obiettivo 1 se e solo se esiste un intero positivo k taleche

Ij = 1 - uj(x) per j = 1, 2, ..., k - 1 e Ik = uk(x).

Introduciamo ora un'interessante variabile casuale che ricopre un ruolo fondamentalenella nostra analisi. Sia

W = j = 1, 2, ... (1 - Ij) / 2j.

Notiamo che W è una variabile casuale ben definita e assume valori in [0, 1].

5. Supponi che il giocatore parta con una ricchezza pari a x in (0, 1). Usa il risultatodell'esercizio 4 per provare che il giocatore raggiunge l'obiettivo 1 se e solo se W < x.

6. Prova che W ha distribuzione continua. Ovvero, mostra che P(W = x) = 0 per ogni xin [0, 1].

Segue, dai risultati degli esercizi 5 e 6, che F è semplicemente la funzione di ripartizionedi W. In particolare, F è una funzione crescente, e poiché W è continua, F è funzionecontinua.

Per gli esercizi 7–10 seguenti, sia

x = k / 2m dove m appartiene a {1, 2, ...}, k appartiene a {0, 1, ... 2m - 1} e y = (k + 1) /2m.

7. Prova che o x o y ha rango m.

8. Dimostra che l'unica sequenza di esiti che provocano la rovina del giocatore quandola ricchezza iniziale è x e la vittoria quando la ricchezza iniziale è y è la sequenza

Gioco aggressivo

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack3.html (2 di 6) [22/11/2001 17.50.24]

Page 240: Laboratorio virtuale di probabilità e statistica

Ij = uj(x) - 1 per j = 1, 2, ..., m.

9. Usa il risultato dell'esercizio 8 per mostrare che

F(y) = F(x) + pzm(x) qm - zm(x).

10. Prova che

F(x) = {pzm(t) qm - zm(t): t < x, n(t) m}.

11. Mostra che

F(1 / 8) = p3, F(2 / 8) = p2, F(3 / 8) = p2 + p2q, F(4 / 8) = p

F(5 / 8) = p + p2q, F(6 / 8) = p + pq, F(7 / 8) = p + pq + pq2

12. Usa il risultato dell'esercizio 9 per mostrare che F è strettamente crescente su [0, 1].Ciò significa che la distribuzione di W ha supporto [0, 1]; ovvero non esistonosottointervalli di [0, 1] con lunghezza positiva e probabilità 0.

13. Usa l'induzione sul rango per mostrare che due soluzioni qualsiasi dell'equazionefunzionale dell'esercizio 2 devono concordare sui binari razionali. Pertanto, ognisoluzione dell'equazione funzionale dell'esercizio 2 deve soddisfare i risultati degliesercizi 9 e 10.

14. Usa il risultato dell'esercizio 13 per mostrare che F è l'unica soluzione continuaall'equazione funzionale dell'esercizio 2.

15. Supponi che p = 1 / 2. Mostra che F(x) = x soddisfa l'equazione funzionaledell'esercizio 2.

Nel caso di prove equilibrate, quindi, la probabilità che il giocatore aggressivo raggiungaa partendo da x è x/a, cioè quanto per il giocatore prudente.

Notiamo dall'esercizio 15 che, se p = 1 / 2, W ha distribuzione uniforme su [0, 1]. Se p èdiverso da 1/2, la distribuzione di W è un po' strana. Per esprimere il risultato in formacompatta, indicheremo la dipendenza della misura di probabilità P dal parametro p.Definiamo

Cp = {x (0, 1): zk(x) / k p per k }.

ovvero l'insieme degli x in (0, 1) per cui la frequenza relativa di zeri nell'espansionebinaria è p.

16. Usa la legge forte dei grandi numeri per mostrare che

Pp(W Cp) = 11.

Pp(W Ct) = 0 per t p.2.

Gioco aggressivo

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack3.html (3 di 6) [22/11/2001 17.50.24]

Page 241: Laboratorio virtuale di probabilità e statistica

Segue dall'esercizio 16 che, quando p è diverso da 1/2, W non ha densità, pur essendo unavariabile casuale continua. La dimostrazione che ne diamo è per assurdo: se W avessedensità f allora

1 = Pp(W Cp) = Cp f(x)dx = 0.

poiché lunghezza(Cp) = P1/2(W Cp) = 0. Ciò significa che, quando p è diverso da 1/2, Fha derivata 0 in quasi ogni punto dell'intervallo [0, 1]. L'immagine seguente riporta igrafici di F per p = 0.2 e 0.4.

17. Nell'esperimento del rosso e nero, seleziona gioco aggressivo. Modifica x, a e pcon le barre a scorrimento e osserva come cambia la distribuzione della ricchezza finale.In particolare, nota che la distribuzione della vincita dipende solo da x / a. Con a = 64, x =24 e p = 0.45, simula 1000 replicazioni, aggiornando ogni 100, e osserva la convergenzadelle frequenze relative alla funzione di densità.

Numero atteso di prove

Definiamo

G(x) = E(N | X0 = x) per x in [0, 1].

Per ogni altro valore di a, e ogni x appartenente a [0, a], il numero atteso di prove èsemplicemente G(x / a).

18. Condizionando all'esito della prima prova, mostra che G soddisfa l'equazionefunzionale

G(x) = 1 + pG(2x) per x in (0, 1 / 2], G(x) = 1 + qG(2x - 1) per x in [1 / 2, 1)

Gioco aggressivo

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack3.html (4 di 6) [22/11/2001 17.50.24]

Page 242: Laboratorio virtuale di probabilità e statistica

e che G soddisfa le condizioni di limite G(0) = 0, G(1) = 0.

È interessante notare che l'equazione funzionale non è soddisfatta in x = 0 o x= 1. Comein precedenza, la rappresentazione binaria della ricchezza iniziale x in (0, 1) èfondamentale per la nostra analisi.

19. Supponi che la ricchezza iniziale del giocatore sia un binario razionale x in (0, 1).Prova che

N = min{k = 1, 2, ...: Ik = uk(x) o k = n(x)}.

Per cui i possibili valori di N sono 1, 2, ..., n(x).

20. Supponi che la ricchezza iniziale sia un binario irrazionale x in (0, 1). Mostra che

N = min{k = 1, 2, ...: Ik = uk(x)}.

Per cui i valori possibili di N sono 1, 2, ....

Possiamo trovare una formula esplicita per il numero atteso di prove G(x) in termini dellarappresentazione binaria di x.

21. Supponi che x in (0, 1) sia un binario razionale. Prova che

G(x) = 1 + i = 1, ..., n(x) - 1 pzi(x) qi - zi(x).

22. Usa il risultato dell'esercizio precedente per mostrare che

G(1 / 8) = 1 + p + p2, G(2 / 8) = 1 + p, G(3 / 8) = 1 + p + pq, G(4 / 8) = 1

G(5 / 8) = 1 + q + pq, G(6 / 8) = 1 + q, G(7 / 8) = 1 + q + q2

23. Supponi che x in (0, 1) sia un binario razionale. Mostra che

G(x) = 1 + i = 1, 2, ... pzi(x) qi - zi(x).

24. Supponi che p = 1 / 2. Prova che

G(x) = 2 - 1 / 2n(x) - 1 se x è un binario razionale1.

G(x) = 2 se x è un binario irrazionale2.

25. Nell'esperimento del rosso e nero, seleziona gioco aggressivo. Modifica x, a e pcon le barre a scorrimento e osserva come cambia il numero atteso di prove. Inparticolare, nota che la media dipende solo da x / a. Con a = 64, x = 24 e p = 0.5, simula1000 replicazioni, aggiornando ogni 100, e osserva la convergenza delle mediacampionaria al valore atteso.

26. Per dato x, prova che G è continua in funzione di p.

Gioco aggressivo

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack3.html (5 di 6) [22/11/2001 17.50.24]

Page 243: Laboratorio virtuale di probabilità e statistica

In funzione della ricchezza iniziale x e per dato p, la funzione G è molto irregolare. Inrealtà G è discontinua per i binari razionali dell'intervallo [0,1] e continua negli altri punti.Gli esercizi seguenti ne danno la dimostrazione.

27. Prova che, per b > 0, esiste un M tale che, per ogni x

i = M, ... pzi(x) qi - zi(x) < b.

28. Supponi che x in (0, 1) sia un binario irrazionale. Per l'M dell'esercizio 10 esiste unintervallo binario di rango M che contiene x:

k / 2M < x < (k + 1) / 2M.

Mostra che, se y appartiene a tale intervallo, allora x e y hanno le stesse cifre binarie, finoall'ordine M - 1, per cui

|G(y) - G(x)| < b.

29. Supponi che x sia un binario razionale di rango n. Per m = 1, 2, ... definisci ymcome

ui(ym) = ui(x) per i = 1, 2, ..., n; ui(ym) = 1 per i = n + m; ui(ym) = 0 altrimenti.

Dimostra che ym converge a x al crescere di m, ma che

G(x) < G(y1) < G(y2) < ···

Laboratorio virtuale > Rosso e nero > 1 2 [3] 4 5Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Gioco aggressivo

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack3.html (6 di 6) [22/11/2001 17.50.24]

Page 244: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli speciali > A B C D E [F] G H

F. Rosso e nero

Sommario

Introduzione1.

Gioco prudente2.

Gioco aggressivo3.

Strategie ottimali4.

Note conclusive5.

Applets

Gioco del rosso e nero●

Esperimento del rosso e nero●

Laboratorio virtuale > Modelli speciali > A B C D E [F] G HSommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Rosso e nero

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/index.html [22/11/2001 17.50.25]

Page 245: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Spazi di Probabilità > 1 2 3 4 5 [6] 7 8

6. Indipendenza

Al solito, iniziamo introducendo un esperimento casuale con spazio campionario S, emisura di probabilità P. In questo paragrafo, parleremo di indipendanza, uno dei concettipiù importanti nella teoria della probabilità. Spesso l'indipendenza viene chiamata incausa come assunzione a priori del modello, e inoltre, come abbiamo già osservatodiverse volte, l'idea stessa di probabilità fa perno su replicazioni indipendenti di unesperimento.

Indipendenza di due eventi

Due eventi A e B sono indipendenti se

P(A B) = P(A)P(B).

Se entrambi gli eventi hanno probabilità positiva, allora affermare l'indipendenza equivalead affermare che la probabilità condizionata di un evento dato l'altro è uguale allaprobabilità non condizionata:

P(A | B) = P(A) se e solo se P(B | A) = P(B) se e solo se P(A B) = P(A)P(B)

Puoi pensare l'indipendenza in questa maniera: sapere che un evento si è verificato nonmodifica la probabilità assegnata all'altro evento.

1. Considera l'esperimento consistente nell'estrarre 2 carte da un mazzo standard eregistrare la sequenza di carte estratte. Per i = 1, 2, sia Qi l'evento in cui la carta i-esima èuna regina e Hi l'evento in cui la carta i-esima è di cuori. Determina se le coppie di eventisono indipendenti, poistivamente correlate o negativamente correlate. Interpreta i risultati.

2. Nell'esperimento delle carte, poni n = 2 e simula 500 replicazioni. Per ciascuna dellecoppie di eventi dell'esercizio precedente, calcola il prodotto delle probabilità empiriche ela probabilità empirica dell'intersezione. Confronta i risultati.

I termini indipendenti e disgiunti sembrano simili, ma sono in realtà molto diversi. Inprimo luogo, la disgiunzione è un concetto proprio della teoria degli insiemi, mentrel'indipendenza è un concetto della teoria della probabilità (quindi basato sulla misura).All'atto pratico, due eventi possono essere indipendenti relativamente a una misura diprobabilità e dipendenti rispetto a un'altra misura. E, il che è più importante, due eventidisgiunti non sono mai indipendenti, a parte un caso triviale.

3. Supponi che A e B siano eventi disgiunti in un esperimento, ciascuno conprobabilità positiva. Dimostra che A e B sono negativamente correlati e quindidipendenti.

Se A e B sono eventi indipendenti di un esperimento, sembra evidente che ogni evento

Indipendenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob6.html (1 di 12) [22/11/2001 17.50.43]

Page 246: Laboratorio virtuale di probabilità e statistica

che può essere costruito a partire da A debba essere indipendente da ogni evento costruitoa partire da B. L'esercizio seguente dimostra questa intuizione.

4. Supponi che A e B siano eventi indipendenti dell'esperimento. Mostra che ciascunadelle seguente coppie di eventi è indipendente:

Ac, B1.

A, Bc2.

Ac, Bc3.

5. Una piccola azienda ha 100 dipendenti, 40 sono uomini e 60 donne. Ci sono 6dirigenti maschi. Quanti dirigenti femmine ci dovrebbero essere se sesso e posizionefossero indipendenti? (L'esperimento sottostante consiste nell'estrarre a caso undipendente).

6. Supponi che A sia un evento per cui P(A) = 0 o P(A) = 1, e B un altro eventodell'esperimento. Dimostra che A e B sono indipendenti.

Dall'ultimo esercizio, un evento A con P(A) = 0 o P(A) = 1 è indipendente da se stesso.Vale anche il contrario:

7. Supponi che A sia un evento dell'esperimento e che A sia indipendente da se stesso.Mostra che o P(A) = 0 o P(A) = 1.

Indipendenza generalizzata

8. Considera l'esperimento che consite nel lanciare due dadi bilanciati e registrare lasequenza di punteggi. Sia A l'evento in cui il primo punteggio è 3, B l'evento in cui ilsecondo punteggio è 4 e C l'evento in cui la somma dei punteggi è 7.

Mostra che gli eventi A, B e C sono indipendenti a due a due (qualsiasi coppia dieventi è indipendente).

1.

Prova che A B implica (è sottinsieme di) C.2.

9. Nell'esperimento dei dadi, poni n = 2 e simula 500 replicazioni. Per ciascuna dellecoppie di eventi dell'esercizio precedente, calcola il prodotto delle probabilità empiriche ela probabilità empirica dell'intersezione. Confronta i risultati.

L'esercizio 8 mostra che una collezione di eventi può essere indipendenti a due a due, mala combinazione di due degli eventi può essere messa in relazione con un terzo evento.Dobbiamo quindi ridefinire il concetto di indipendenza per includere l'indipendenzareciproca di tre o più eventi.

Supponi che {Aj: j J} sia una collezione di eventi, dove J è un insieme di indici nonvuoto. Gli {Aj: j J} si dicono indipendenti se per ogni sottinsieme finito K di J,

P[ k in K Ak] = k in K P(Ak).

Indipendenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob6.html (2 di 12) [22/11/2001 17.50.43]

Page 247: Laboratorio virtuale di probabilità e statistica

10. Prova che esistono 2n - n - 1 condizioni non elementari nella definizione diindipendenza di n eventi.

11. Indica esplicitamente le 4 condizioni che devono essere soddisfatte affinché glieventi A, B e C siano indipendenti.

12. Indica esplicitamente le 11 condizioni che devono essere soddisfatte affinché glieventi A, B, C e D siano indipendenti.

In particolare, se A1, A2, ..., An sono indipendenti, allora

P(A1 A2 ··· An) = P(A1) P(A2) ··· P(An).

Questa è nota come regola del prodotto per eventi indipendenti. Confrontala con la regoladel prodotto generale per la probabilità condizionata.

13. Supponi che A, B e C siano eventi indipendenti di un esperimento, con P(A) = 0.3,P(B) = 0.5, P(C) = 0.8. Esprimi ciascuno dei seguenti eventi in notazione insiemistica etrova la sua probabilità:

Si verifica almeno uno dei tre eventi.1.

Non si verifica nessuno dei tre eventi.2.

Si verifica esattamente uno dei tre eventi.3.

Si verificano esattamente due dei tre eventi.4.

La definizione generale di indipendenza è equivalente alla seguente condizione cheimplica solo l'indipendenza di coppie di eventi: se J1 e J2 sono sottinsiemi numerabili edisgiunti dell'insieme di indici J, e se B1 è un evento costruito a partire dagli eventi Aj, j

J1 (utilizzando le operazioni sugli insiemi di unione, intersezione e complementazione)e B2 è un evento costruito dagli eventi Aj, j J2, allora B1 e B2 sono indipendenti.

14. Supponi che A, B, C e D siano eventi indipendenti di un esperimento. Prova che iseguenti eventi sono indipendenti:

A B, C Dc.

Il problema seguente riporta una formula per la probabilità dell'unione di eventiindipendenti molto migliore della formula di inclusione-esclusione.

15. Supponi che A1, A2, ..., An siano eventi indipendenti. Prova che

P(A1 A2 ··· An) = 1 - [1 - P(A1)][1 - P(A2)] ··· [1 - P(An)].

16. Supponi che {Aj: j J} sia una collezione numerabile di eventi, ciascuno dei qualicon probabilità 0 o 1. Dimostra che gli eventi sono indipendenti.

Indipendenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob6.html (3 di 12) [22/11/2001 17.50.43]

Page 248: Laboratorio virtuale di probabilità e statistica

17. Supponi che A, B e C siano eventi indiependenti di un esperimento con P(A) =1/2, P(B) = 1/3, P(C) = 1/4. Trova la probabilità di ciascuno dei seguenti eventi:

(A B) C.1.

A Bc C.2.

(Ac Bc) Cc.3.

18. Tre studenti dello stesso corso non si presentano a un esamino di matematica.Decidono di mentire al professore dicendo di aver bucato una gomma della macchina. Ilprofessore separa gli studenti e chiede a ognuno quale ruota si fosse bucata. Gli studenti,che non si aspettavano tale domanda, rispondono casualmente e indipendentemente l'unodal'altro. Trova la probabilità che gli studenti riescano a farla franca.

Per una trattazione più completa del problema degli studenti che mentono, vedi il numerodi valori campionari distinti nel capitolo sui modelli di campionamento finiti.

Indipendenza di variabili casuali

Supponiamo, di nuovo, di avere un esperimento casuale con spazio campionario S emisura di probabilità P. Supponiamo inoltre che Xj sia una variabile casuale a valori in Tjper ogni j di un insieme non vuoto di indici J. Intuitivamente, le variabili casuali sonoindipendenti se la conoscenza dei valori assunti da alcune delle variabili non ci dice nullasul valore che le altre potranno assumere. Matematicamente, l'indipendenza di vettorialeatori può essere ricondotta all'indipendenza di eventi. Formalmente, la collezione divariabili casuali

{Xj: j J}

è indipendente se ogni collezione di eventi della seguente forma è indipendente:

{{Xj Bj}: j J} dove Bj Tj for j J.

Quindi, se K è sottinsieme finito di J allora

P[ k in K {Xk Bk}] = k in K P(Xk Bk)

19. Considera una collezione di variabili casuali indipendenti definita come sopra, esupponi che per ogni j appartenente a J, gj sia una funzione da Tj in un insieme Uj.Dimostra che anche la seguente collezione di variabili casuali è indipendente.

{gj(Xj): j J}.

20. Dimostra che la collezione di eventi {Aj, j J} è indipendente se e solo se lacollezione corrispondente di variabili indicatore {Ij, j J} è indipendente.

Esperimenti composti

Indipendenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob6.html (4 di 12) [22/11/2001 17.50.43]

Page 249: Laboratorio virtuale di probabilità e statistica

Possiamo ora precisare meglio molti dei concetti che abbiamo fin qui utilizzatoinformalmente. Un esperimento composto formato da "stadi indipendenti" è sempliceenteun esperimento in cui la variabile esito ha forma

Y = (X1, X2, ..., Xn)

dove X1, X2, ..., Xn sono indipendenti (Xi è l'esito dell'i-esimo stadio).

In particolare, supponiamo di avere un esperimento semplice con variabile di esito X. Perdefinizione, l'esperimento formato da n "replicazioni indipendenti" dell'esperimentosemplice ha vettore esito

Y = (X1, X2, ..., Xn)

dove Xi è distribuito come X per i = 1, 2, ..., n.

Da un punto di vista statistico, supponiamo di avere una popolazione di unità statistiche eun vettore di misurazioni di interesse sulle unità del campione. Per definizione, un"campione casuale" di dimensione n è l'esperimento il cui vettore esito è

Y = (X1, X2, ..., Xn)

dove X1, X2, ..., Xn sono indipendenti e identicamente distribuite (Xi è il vettore di misuresull'i-esima unità del campione).

Per definizione, le prove Bernoulliane sono variabili indicatore indipendenti eidenticamente distribuite I1, I2, .... Più in generale le, prove multinomiali sono variabiliindipendenti e identicamente distribuite X1, X2, ... che assumono valori in un insieme conk elementi (i possibili esiti della prova). In particolare, se si lanciano dadi o monete,possiamo in genere assumere che i punteggi che si ottengono siano indipendenti.

21. Supponiamo di lanciare 5 volte un dado equilibrato. Trova la probabilità che escaalmeno un 6.

22. Supponiamo di lanciare 10 volte due dadi equilibrati. Trova la probabilità diottenere almeno un doppio 6.

23. Una moneta squilibrata con probabilità di testa 1/3 viene lanciata 5 volte. Sia X ilnumero di teste. Trova

P(X = i) for i = 0, 1, 2, 3, 4, 5.

24. Considera l'espeirmento consistente nel lanciare n dadi e registrare la sequenza dipunteggi (X1, X2, ..., Xn). Prova che le seguenti condizioni sono equivalenti (ecorrispondono all'assunzione che i dadi siano equilibrati):

(X1, X2, ..., Xn) è distribuito uniformemente su {1, 2, 3, 4, 5, 6}n.1.

X1, X2, ..., Xn sono indipendenti e ciascuno è distribuito uniformemente su {1, 2, 3,2.

Indipendenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob6.html (5 di 12) [22/11/2001 17.50.43]

Page 250: Laboratorio virtuale di probabilità e statistica

4, 5, 6}

25. Ricorda che l'esperimento della moneta di Buffon consiste nel lanciare una moneta

di raggio r 1/2 su un pavimento coperto da mattonelle quadrate di lato 1. Si registrano lecoordinate (X, Y) del centro della moneta, relativamente ad assi che passano attraverso ilcentro del quadrato e paralleli ai lati. Prova che le seguenti condizioni sono equivalenti:

(X, Y) è distribuito uniformemente su [-1/2, 1/2]2.1.

Xe Y sono indipendenti e ciascuno è distribuito uniformemente su [-1/2, 1/2].2.

26. Nell'esperimento della moneta di Buffon, poni r = 0.3 e simula 500 replicazioni.Per gli eventi {X > 0}, {Y < 0}, calcola il prodotto delle probabilità empiriche e laprobabilità empirica dell'intersezione. Confronta i risultati.

27. L'orario di arrivo X del treno A è distribuito uniformemente sull'intervallo (0, 30),mentre l'orario di arrivo Y del treno B è distribuito uniformemente sull'intervallo (15, 60)(gli orari di arrivo sono in minuti dopo le 8 del mattino). Inoltre, gli orari di arrivo sonoindipendenti.

Trova la probabilità che il treno A arrivi primo.1.

Trova la probabilità che entrambi i treni arrivino dopo 20 minuti.2.

Un'interpretazione della probabilità condizionata

Gli esercizi seguenti presentano un'interssante interpretazione della probabilitàcondizionata. Iniziamo con un esperimento semplice, e replichiamolo indefinitamente.Quindi, se A è un evento dell'esperimento semplice, l'esperimento composto è formato dacopie indipendenti di A:

A1, A2, A3, ... con P(Ai) = P(A) per ogni i.

Supponiamo ora che A e B siano eventi dell'esperimento semplice con P(B) > 0.

28. Dimostra che, nell'esperimento composto, l'evento in cui "quando B si verifica perla prima volta, si verifica anche A" è

(A1 B1) (B1c A2 B2) (B1

c B2c A3 B3) ···

29. Dimostra che la probabilità dell'evento dell'esercizio precedente è P(A B) / P(B)= P(A | B).

30. Prova a spiegare direttamente il risultato dell'ultimo esercizio. In particolare,supponi di ripetere l'esperimento semplice finché B si verifica per la prima volta e poiregistrare solo l'esito di questa prova. Spiega poi perché la misura di probabilitàappropriata è

A P(A | B).

31. Supponi che A e B siano eventi disgiunti di un esperimento con P(A) > 0, P(B) > 0.

Indipendenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob6.html (6 di 12) [22/11/2001 17.50.43]

Page 251: Laboratorio virtuale di probabilità e statistica

Nell'esperimento composto che si ottiene replicando l'esperimento semplice, prova chel'evento "A si verifica prima di B" ha probabilità

P(A) / [P(A) + P(B)].

32. Si lanciano due dadi equilibrati. Trova la probabilità che il punteggio-somma 4 sipresenti prima del punteggio-somma 7.

I problemi del tipo dell'esercizio precedente sono comuni nel gioco di craps.

Indipendenza condizionata

Come abbiamo notato all'inizio del paragrafo l'indipendenza di eventi o variabili casualidipende dalla misura di probabilità sottostante. Supponiamo che B un evento di unesperimento casuale con probabilità positiva. Una collezione di eventi o una collezione divariabili casuali è condizionatamente indipendente dato B se la collezione è indipendenterispetto alla misura di probabilità condizionata

A P(A | B).

Osserva che le definizioni e i teoremi di questo paragrafo restano validi, ma con tutte leprobabilità condizionate a B.

33. Una scatola contiene una moneta equilibrata e una moneta a due teste. Si estrae unamoneta a caso e la si lancia ripetutamente. Sia F l'evento in cui si estrae la monetabilanciata, e Hi l'evento in cui esce testa all'i-esimo lancio.

Spiega perché H1, H2, ... sono condizionatamente indipendenti dato F, con P(Hi | F)= 1/2 per ogni i.

1.

Spiega perché H1, H2, ... sono condizionatamente indipendenti dato Fc, con P(Hi |

Fc) = 1 per ogni i.

2.

Dimostra che P(Hi) = 3 / 4 per ogni i.3.

Dimostra che P(H1 H2 ··· Hn) = (1 / 2)n + 1 + (1 / 2).4.

Nota che H1, H2, ... sono dipendenti.5.

Prova che P(F | H1 H2 ··· Hn) = 1 / (2n + 1).6.

Ulteriori applicazioni dell'indipendenza condizionata sono riportate qui sotto.

Affidabilità

In un modello semplice di affidabilità strutturale, un sistema è formato da n componenti,ciascuno dei quali, indipendentemente dagli altri, può essere funzionante o guasto. Ancheil sistema nel suo complesso può essere funzionante o guasto, a seconda degli stati dellecomponenti. La probabilità che il sistema funzioni è detta affidabilità del sistema. Negliesercizi seguenti, indichiamo con pi la probabilità che la componente i funzioni, per i = 1,2, ..., n.

Indipendenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob6.html (7 di 12) [22/11/2001 17.50.43]

Page 252: Laboratorio virtuale di probabilità e statistica

34. Commenta l'assunzione di indipendenza su sistemi reali, quali un'automobile o uncomputer.

35. Un sistema in serie funziona se e solo se ciascuna componente funziona. Prova chel'affidabilità del sistema è

R = p1 p2 ··· pn.

36. Un sistema in parallelo funziona se e solo se almeno una componente funziona.Prova che l'affidabilità del sistema è

R = 1 - (1 - p1)(1 - p2) ··· (1 - pn).

Più in generale, un sistema k di n funziona se e solo se almeno k delle n componentifunzionano. Nota che un sistema parallelo è un sistema 1 di n e un sistema in serie è unsistema n di n. Un sistema k di 2k + 1 è detto sistema a regola di maggioranza .

37. Considera un sistema di 3 componenti con affidabilità p1 = 0.8, p2 = 0.9, p3 = 0.7.Trova l'affidabilità di

Il sistema in serie.1.

Il sistema 2 di 3.2.

Il sistema in parallelo.3.

In certi casi, il sistema può essere rappresentato graficamente. I bordi rappresentano icomponenti e i vertici le connessioni tra componenti. Il sistema funzione se e solo se c'èuna strada percorribile tra i due vertici, che indicheremo con a e b.

38. Trova l'affidabilità della rete a ponte riportata sotto, in termini delle affidabilitàdelle componenti pi, i = 1, 2, 3, 4, 5. Suggerimento: un approccio può essere dicondizionare al fatto che la componente 3 sia funzionante o guasta.

39. Un sistema è formato da 3 componenti collegate in parallelo. Sotto bassecondizioni di sforzo, le componenti sono indipendenti e ciascuna ha affidabilità 0.9; sottocondizioni di sforzo medie, le componenti sono indipendenti con affidabilità 0.8 e sottocondizioni di sforzo elevato le componenti sono indipendenti con affidabilità 0.7. Laprobabilità che le condizioni di sforzo siano basse è 0.5, medie 0.3 ed elevate 0.2.

Trova l'affidabilità del sistema.1.

Sapendo che il sistema funziona, trova la probabilità condizionata che si trovi in2.

Indipendenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob6.html (8 di 12) [22/11/2001 17.50.43]

Page 253: Laboratorio virtuale di probabilità e statistica

condizione di sforzo basso.

Test diagnostici

Richiama la discussione sui test diagnostici del paragrafo precedente. Abbiamo un eventoA di un esperimento casuale il cui verificarsi oppure no non può essere etichettati da 1 an. Sia Ti le'vento in cui il test i è positivo per A. I test sono indipendenti nel senso che:

Se A si verifica, allora T1, T2, ..., Tn sono indipendenti e il test i ha sensitività

ai = P(Ti | A).

Se A non si verifica, allora T1, T2, ..., Tn sono indipendenti e il test i ha specificità

bi = P(Tic | Ac).

Possiamo generare un nuovo test composto scegliendo una regola di decisione in funzionedei risultati dei test individuali. In altre parole, l'evento T in cui il test composto è positivoper A è funzione di T1, T2, ..., Tn. Le regole di decisione più comuni sono simili allestrutture di affidabilità che abbiamo presentato poc'anzi. Un caso particolare interessantesi ha quando gli n test sono applicazioni indipendenti di un dato test semplice. In cui caso,gli ai e i bi sono gli stessi.

40. Considera l'esperimento composto positivo per A se e solo se ciascuno degli n testè positivo per A. Prova che

T = T1 T2 ··· Tn.1.

La sensitività è P(T | A) = a1 a2 ··· an.2.

La specificità è P(Tc | Ac) = 1 - (1 - b1)(1 - b2) ··· (1 - bn).3.

41. Considera l'esperimento composto positivo per A se e solo se almeno uno degli ntest è positivo per A. Prova che

T = T1 T2 ··· Tn.1.

La sensitività è P(T | A) = 1 - (1 - a1)(1 - a2) ··· (1 - an).2.

La specificità è P(Tc | Ac) = b1 b2 ··· bn.3.

Più in generale, possiamo definire il test composto k di n che risulta positivo per A se esolo se almeno k test individuali sono positivi per A. Il test dell'esercizio 1 è n di n test,mentre il test dell'esercizio 2 è 1 di n. Il test k di 2k + 1 è il test a regola di maggioranza.

42. Supponiamo che una donna creda di avere pari probabilità di essere incinta o nonesserlo. Compra tre test di gravidanza identici con sensitività 0.95 e specificità 0.9. I test 1e 3 sono positivi e il test 2 è negativo. Trova la probabilità che la donna sia incinta.

43. Supponi di applicare 3 test indipendenti ed identici per un evento A ciascuno consensitività a e specificità b. Trova la sensitività e la specificità dei test

Indipendenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob6.html (9 di 12) [22/11/2001 17.50.44]

Page 254: Laboratorio virtuale di probabilità e statistica

1 di 31.

2 di 32.

3 di 33.

44. In un processo, l'imputato è condannato se e solo se tutti e 6 i giurati lo ritengonocolpevole. Assumiamo che, se l'imputato è realmente colpevole, i giurati votinocolpevole, indipendentemente l'uno dall'altro, con probabilità 0.95, mentre, se l'imputato èinnocente, che i giurati votino non colpevole, indipendentemente l'uno dall'altro, conprobabilità 0.8. Supponiamo che l'80% degli imputati che arrivano al processo sianocolpevoli.

Trova la probabilità che l'imputato sia condannato.1.

Sapendo che l'imputato viene condannato, trova la probabilità che sia realmentecolpevole.

2.

Commenta l'assunzione che i giurati agiscano indipendentemente l'uno dall'altro.3.

Emofilia

La forma più comune di emofilia è dovuta a un difetto del cromosoma X (uno dei duecromosomi che determinano il sesso). Indichiamo con h l'allele difettoso, collegatoall'emofilia, e con H il corrispondente allele normale. Le donne hanno due cromosomi X,e h è recessivo. Quindi, una donna con gene HH è normale; una donna con gene hH o Hhè portatrice sano; infine una donna con gene hh ha la malattia. L'uomo ha solo uncromosoma X (il suo ulteriore cromosoma, il cromosoma Y, non ha effetto sulla malattia).Un uomo con gene h è emofilico, mentre un uomo con gene H è sano. Gli eserciziseguenti analizzano le modalità di trasmissione della malattia.

45. Supponi che la madre sia portatrice sana e il padre normale. Spiega perché,indipendentemente da figlio a figlio,

Ciascun figlio maschio ha probabilità 1/2 di avere l'emofilia e 1/2 di essere sano.1.

Ciascuna figlia femnmina ha probabilità 1/2 di essere portatrice sana e 1/2 di esseresana.

2.

46. Supponi che la madre sia normale e il padre malato. Spiega perché

Ciascun figlio maschio è normale.1.

Ciascuna figlia femmina è portatrice sana.2.

47. Supponi che la madre sia portatrice sana e il padre malato. Spiega perché,indipendentemente da figlio a figlio,

Ciasun figlio maschio è malato con probabilità 1/2 e sano con probabilità 1/2.1.

Ciascuna figlia femmina è malata con probabilità 1/2 e portatrice sana conprobabilità 1/2.

2.

48. Supponi che la madre sia emofiliaca e il padre normale. Spiega perché

Ogni figlio maschio è emofiliaco.1.

Indipendenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob6.html (10 di 12) [22/11/2001 17.50.44]

Page 255: Laboratorio virtuale di probabilità e statistica

Ciascuna figlia femmina è poratrice sana.2.

49. Supponi che sia padre che madre siano emofiliaci. Spiega perché ogni figlio èemofiliaco.

Da questi esercizi puoi notare che la trasmissione della malattia a una figlia femmina sipuò verificare solo se la madre è almeno portatrice sana e il padre malato. In popolazioneampie, questa combinazione di eventi è rara, per cui la malattia è rara nelle donne.

50. Supponi che una donna abbia inizialmente probabilità 1/2 di essere portatrice sana.Sapendo che ha 2 figli maschi sani,

Calcola la probabilità condizionata che sia portatrice sana.1.

Calcola la probabilità condizionata che il terzo figlio sia sano.2.

Regola di successione di Laplace

Supponiamo di avere N + 1 monete, etichettate 0, 1, ..., N. La moneta i è testa conprobabilità i / N per ogni i. In particolare, osserva che la moneta 0 è a due croci e lamoneta N a due teste. L'esperimento consiste nello scegliere a caso una moneta (cosicchéciascuna moneta abbia uguale probabilità di essere scelta) e lanciarla ripetutamente.

51. Mostra che la probabilità che i primi n lanci siano teste è

pN,n = [1 / (N + 1)] i = 0, ..., N (i / N)n.

52. Mostra che la probabilità condizionata che il lancio n + 1 sia testa sapendo che iprecedenti n lanci sono stati testa è

pN,n+1 / pN,n.

53. Interpreta pN,n come somma approssimata dell'integrale di xn da 0 a 1 per provareche

pN,n 1 / (n + 1) as N .

54. Concludi che

pN,n+1 / pN,n (n + 1) / (n + 2) as N .

La probabilità condizionata limite dell'esercizio precedente è detta regola dellasuccessione di Laplace, in onore di Simon Laplace. Questa regola è stata usata da Laplacee altri come principio generale per stimare la probabilità condizionata che un evento siverifichi per la n + 1 -esima volta, sapendo h si è verificato n volte in successione.

55. Supponi che un missile abbia superato con succeso 10 test successivi. Calcola lastima di Laplace della probabilità che l'undicesimo test abbia successo. Sembra averesenso?

Indipendenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob6.html (11 di 12) [22/11/2001 17.50.44]

Page 256: Laboratorio virtuale di probabilità e statistica

56. Commenta la validità della regola di Laplace come principio generale.

Laboratorio virtuale > Spazi di Probabilità > 1 2 3 4 5 [6] 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Indipendenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob6.html (12 di 12) [22/11/2001 17.50.44]

Page 257: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Spazi di Probabilità > 1 2 3 4 5 6 [7] 8

7. Convergenza

In questo paragrafo discueteremo di vari argomenti piuttosto avanzati ma moltoimportanti, che ci serviranno in particolare per introdurre

le proprietà delle distribuzioni,●

la legge debole dei grandi numeri,●

la legge forte dei grandi numeri.●

Limiti

Introduciamo in primo luogo alcuni concetti fondamentali che utilizzeremo. Se A è unsottinsieme di R, ricorda che l'estremo inferiore (o maggior minorante) di A, indicato coninf A è il numero u che soddisfa

u x per ogni x appartenente a A (u è un minorante di A).1.

se v x per ogni x appartenente a A allora v u (u è il maggiore dei minoranti).2.

Similmente, l'estremo superiore (o minor maggiorante) di A, indicato con sup A è ilnumero w che soddisfa

x w per ogni x appartenente a A (w è un maggiorante di A).1.

se x z per ogni x appartenente a A allora w z (w è il minore dei maggioranti).2.

Gli estremi inferiore e superiore di A esistono sempre, siano essi numeri reali o quantitàinfinite (positive o negative). Supponiamo ora che an, n = 1, 2, ... sia una successione dinumeri reali.

1. Prova che inf{ak: k = n, n + 1, ...}, n = 1, 2, ... è una successione crescente.

Il limite della successione dell'esercizio precedente è detto limite inferiore dellasuccessione originale an:

lim infn an = limn inf{ak: k = n, n + 1, ...}.

2. Mostra che sup{ak: k = n, n + 1, ...}, n = 1, 2, ... è una successione decrescente.

Il limite della successione dell'esercizio precedente è detto limite superiore dellasuccessione originale an:

lim supn an = limn sup{ak: k = n, n + 1, ...}

Ricorda che lim infn an lim supn an e che l'uguaglianza vale solo se limn an esiste (ed èil valore comune).

Convergenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob7.html (1 di 8) [22/11/2001 17.50.55]

Page 258: Laboratorio virtuale di probabilità e statistica

Per il seguito di questo paragrafo, assumeremo di avere un esperimento casuale conspazio campionario S e misura di probabilità P. Per convenzione notazionale, scriveremo

limn per il limite per n .

Il teorema di continuità per eventi crescenti

Un successione di eventi An, n = 1, 2, ... si dice crescente se An An+1 per ogni n. Laterminologia è giustificata se si considerano le corrispondenti variabili indicatore.

3. Sia In la variabile indicatore di un evento An per n = 1, 2, ... Mostra che lasuccessione di eventi è crescente se e solo se la successione delle varibili indicatore è

crescente in senso ordinario: In In+1 per ogni n.

Se An, n = 1, 2, ... è una successione crescente di eventi, si indica l'unione di questi eventicome limite degli eventi:

limn An = n = 1, 2, ... An.

Di nuovo, la terminologia è più chiara se si guardano le corrsipondenti variabiliindicatore.

4. Supponi che An, n = 1, 2, ... sia una successione crescente di eventi. Sia In lavariabile indicatore di An per n = 1, 2, ... e sia I la variabile indicatore dell'unione deglieventi. Dimostra che

limn In = I.

In termini generali, una funzione è continua se mantiene i limiti. Il teorema dell'esercizioseguente è noto come teorema di continuità per eventi crescenti:

5. Supponi che An, n = 1, 2, ... sia una successione crescente di eventi. Prova che

P(limn An) = limn P(An).

Suggerimento: Poni B1 = A1 e per i = 2, 3, ... poni Bi = Ai Ai-1c. Mostra che B1, B2, ...

sono a due a due disgiunti e hanno la stessa unione di A1, A2, .... Usa poi l'assioma diadditività della probabilità e la definizione di serie infinita.

Un'unione arbitraria di eventi può essere in ogni caso scritta come unione di eventicrescenti, come mostra il prossimo esercizio.

6. Supponi che An, n = 1, 2, ... sia una successione di eventi.

Prova che i = 1, ..., n Ai è crescente in n.1.

Convergenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob7.html (2 di 8) [22/11/2001 17.50.55]

Page 259: Laboratorio virtuale di probabilità e statistica

Prova che limn i = 1, ..., n Ai = n = 1, 2, ... An.2.

Prova che limn P[ i = 1, ..., n Ai] = P[ n = 1, 2, ... An] .3.

7. Supponi che A sia un evento di un esperimento semplice con P(A) > 0. Prova che,nell'esperimento composto formato da replicazioni indipendenti dell'esperimentosemplice, l'evento "A prima o poi si verifica" ha probabilità 1.

Il teorema di continuità per eventi decrescenti

Una successione di eventi An, n = 1, 2, ... si dice decrescente se An+1 An per ogni n.Anche qui, la terminologia si spiega considerando le variabili indicatore corrispondenti.

8. Sia In la variabile indicatore dell'evento An per n = 1, 2, ... Mostra che la successionedi eventi è decrescente se e solo se la successione delle variabili indicatore è decrescente

in senso ordinario: In+1 In for each n.

Se An, n = 1, 2, ... è una successione decrescente di eventi, si indica l'intersezione di talieventi come limite degli eventi:

limn An = n = 1, 2, ... An.

Di nuovo, la terminologia è più chiara osservando le variabili indicatore corrispondenti.

9. Supponi che An, n = 1, 2, ... sia una successione decrescente di eventi. Sia Ij lavariabile indicatore di Aj per j = 1, 2, ... e sia I la variabile indicatore dell'intersezionedegli eventi. Dimostra che

limn In = I.

L'esercizio seguente riporta il teorema di continuità per eventi decrescenti:

10. Supponi che An, n = 1, 2, ... sia una successione decrescente di eventi. Prova che

P(limn An) = limn P(An).

Suggerimento: Applica il teorema di continuità per eventi crescenti agli eventi Anc, n = 1,

2, ...

Ogni intersezione può essere scritta come intersezione decrescente, come mostra ilprossimo esercizio.

11. Supponi che An, n = 1, 2, ... siano eventi di un esperimento.

Prova che i = 1, ..., n Ai è successione decrescete in n = 1, 2, ...1.

Convergenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob7.html (3 di 8) [22/11/2001 17.50.55]

Page 260: Laboratorio virtuale di probabilità e statistica

Prova che limn i = 1, ..., n Ai = n = 1, 2, ... An.2.

Prova che limn P[ i = 1, ..., n Ai] = P[ n = 1, 2, ... An].3.

Il primo lemma di Borel-Cantelli

Supponi che An, n = 1, 2, ... sia una successione di eventi arbitraria.

12. Prova che i = n, n + 1, ... Ai è decrescente in n = 1, 2, ...

Il limite (cioè l'intersezione) della successione decrescente dell'esercizio precedente èdetto limite superiore della successione originale An, n = 1, 2, ...

lim supn An = n = 1, 2, ... i = n, n + 1, ... Ai.

13. Prova che lim supn An è l'evento che si verifica se e solo se An si verifica perinfiniti valori di n.

Anche in questo caso, la terminologia si spiega osservando le variabili indicatorecorrispondenti:

14. Supponi che An, n = 1, 2, ... sia una sequenza di eventi. Sia In la variabileindicatore di An per n = 1, 2, ... e sia I la variabile indicatore di lim supn An. Prova che

I = lim supn In.

15. Usa il teorema di continuità per eventi decrescenti per provare che

P(lim supn An) = limn P[ i = n, n + 1, ... Ai].

Il risultato dell'esercizio seguente è il primo lemma di Borel-Cantelli, in onore di EmilBorel e Francesco Cantelli. Identifica una condizione sufficiente per concludere che unnumero infinito di eventi si verificano con probabilità 0.

16. Supponi che An, n = 1, 2, ... sia una successione di eventi. Prova che

n = 1, 2, ... P(An) < implica P[lim supn An] = 0.

Suggerimento: Usa il risultato dell'esercizio precedente e la disuguaglianza di Boole.

Il secondo lemma di Borel-Cantelli

Supponiamo che An, n = 1, 2, ... sia una successione arbitraria di eventi. Per n = 1, 2, ...,

Convergenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob7.html (4 di 8) [22/11/2001 17.50.55]

Page 261: Laboratorio virtuale di probabilità e statistica

definiamo

17. Prova che i = n, n + 1, ... Ai è crescente in n = 1, 2, ...

Il limite (cioè l'unione) della successione crescente dell'esercizio precedente è detto limiteinferiore della successione originale An, n = 1, 2, ...

lim infg An = n = 1, 2, ... i = n, n + 1, ... Ai.

18. Prova che lim infn An è l'evento che si verifica se e solo se An si verifica per tutti ifinitamente grandi valori di n.

Anche qui, la terminologia si spiega osservando le variabili indicatore corrispondenti:

19. Supponi che An, n = 1, 2, ... sia una successione di eventi. Sia Ij la variabileindicatore di Aj per j = 1, 2, ... e sia I la variabile indicatore di lim infn An. Prova che

I = lim infn In.

20. Usa il teorema di continuità per eventi crescenti per mostrare che

P[lim infn An] = limn P[ i = n, n + 1, ... Ai].

21. Prova che lim infn An lim supn An.

22. Prova che (lim supn An)c =lim infn Anc. Suggerimento: Usa le leggi di DeMorgan.

Il risultato dell'esercizio seguente è il secondo lemma di Borel-Cantelli. Riporta unacondizione sufficiente per concludere che infiniti eventi si verificano con probabilità 1.

23. Supponi che An, n = 1, 2, ... siano eventi mutualmente indibendenti. Dimostra che

n = 1, 2, ... P(An) = implica P(lim supn An) = 2.

Suggerimento: Usa il risultato dell'esercizio precedente, l'indipendenza e il fatto che 1 -

P(Ak) exp[-P(Ak)], poiché 1 - x e-x per ogni x.

24. Supponi che A sia un evento di un esperimento semplice con P(A) > 0. Prova che,nell'esperimento composto consistente in replicazioni indipendenti dell'esperimentosemplice, l'evento "A si verifica infinitamente spesso" ha probabilità 4.

25. Supponi di avere una successione infinita di monete indicate come 1, 2, .... Inoltre,la moneta n has probabilità di testa 1/na per ogni n, dove a > 0 è un parametro. Si lanciaciascuna moneka in successione una volta. In termini di a, trova la probabilità che siverifichino

Convergenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob7.html (5 di 8) [22/11/2001 17.50.55]

Page 262: Laboratorio virtuale di probabilità e statistica

infinite teste.1.

infinite croci.2.

Convergenza di variabili casuali

Supponiamo che Xn, n = 1, 2, ... e X siano variabili casuali a valori reali per unesperimento. Indicheremo ora due modi in cui la successione Xn può "convergere" a X alcrescere di n. Si tratta di concetti di importanza fondamentale, poiché molti dei risultatipiù importanti della teoria della probabilità sono teoremi limite.

Diciamo in primo luogo che Xn X per n con probabilità 1 se

P(Xn X per n ) = 8.

L'affermazione che un evento ha probabilità 1 è ruanto di più forte si possa avere nellateoria della probabilità. Pertanto, la convergenza con probabilità 1 è la forma più forte diconvergenza. Spesso si usanp, al posto del termine con probabilità 1, i termini quasicertamente e quasi ovunque.

Diciamo invece che Xn X per n in probabilità se per ogni r > 0,

P(|Xn - X| > r ) 6 as n .

Il termine in probabilità suona simile a con probabilità 1. Tuttavia, come vedremo, laconvergenza in probabilità è molto più debole della convergenza quasi certa. Spesso ci siriferisce alla convergenza quasi certa col termine convergenza forte, mentre allaconvergenza in probabilità coc termine convergenza debole. La prossima serie di esercizianalizza la convergenza quasi certa.

26. Prova che i seguenti eventi sono equivalenti:

Xn non converge a X per n .1.

Per qualche r > 0, |Xn - X| > r per infinitamente numerosi n.2.

Per qualche razionale r > 0, |Xn - X| > r per infinitamente numerosi n.3.

27. Usa il risultato dell'esercizio precedente per dimostrare che le seguenti asserzionisono equivalenti

P(Xn X as n ) = 11.

Per ogni r > 0, P[|Xn - X| > r per infinitamente numerosi n] = 0.2.

Per ogni r > 0, P(|Xk - X| > r per qualche k n) 0 per n .3.

28. Usa il risultato dell'esercizio precedente e il primo lerma di Borel-Cantelli perdimostrare che

n = 1, 2, ... P(|Xn - X| > r) < per ogni m > 0 implica P(Xn X as n ) = 1.

Convergenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob7.html (6 di 8) [22/11/2001 17.50.55]

Page 263: Laboratorio virtuale di probabilità e statistica

L'esercizio 29 riporta un risultato importante: la convergenza quasi certa implica laconvergenza in probabilità.

29. Prova che se Xn X per n quasi certamente allora Xn X as n in probabilità.

Il contrario però non vale, come mostra il prossimo esercizio.

31. Supponi che X1, X2, X3, ... sia una successione di variabili casuali indipendenti con

P(Xn = 1) = 4 / n, P(Xn = 0) = 1 - 1 / n per n = 1, 2, ...

Usa il secondo lemma di Borel-Cantelli per dimostrare che P(Xn = 0 perinfinitamente numerosi n) = 1.

1.

Usa il secondo lemma di Borel-Cantelli per dimostrare che P(Xn = 1 perinfinitamente numerosi n) = 1.

2.

Usa (b) e (c) per dimostrare che P(Xn non converge per n ) = 1.3.

Dimostra che Xn 0 per n in probabilità.4.

Esistono due ulteriori modalità di convergenza che analizzeremo più avanti:

convergenza in media k-esima,●

convergenza in distribuzione.●

Eventi coda

Sia X1, X2, X3, .... una successione di variabili casuali. La sigma algebra coda dellasuccessione è

T = n = 1, 2, ... sigma{Xk: k = n, n + 1, ...},

e un evento B T è un evento coda per la successione X1, X2, X3, .... Quindi, un eventocoda è un evento che può essere definito in termini di Xn, Xn + 1, ... per ogni n.

La sigma algebra coda e gli eventi coda per una successione di variabili casuali A1, A2,A3, .... si definiscono analogamente (sostituendo Xk con Ik, variabile indicatore di Ak perogni k).

31. Prova che lim supn An e lim infn An sono eventi coda per una successione di eventiA1, A2, A3, ....

32. Prova che l'evento in cui Xn converge per n è un evento coda per unasuccessione di variabili casuali X1, X2, X3, ....

L'esercizio seguente riporta la legge zero-uno di Kolmogorov, chiamata così in onore di

Convergenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob7.html (7 di 8) [22/11/2001 17.50.55]

Page 264: Laboratorio virtuale di probabilità e statistica

Andrey Kolmogorov.

33. Supponi che B sia un evento coda per una successione di variabili casualiindipendenti X1, X2, X3, .... Prova che o P(B) = 0, o P(B) =1.

Spiega perché per ogni n, X1, X2, ..., Xn, B sono indipendenti.1.

Da (a), spiega perché X1, X2, ..., B sono indipendenti.2.

Da (b) spiega perché B è indipendente da se stesso.3.

Da (c) mostra che P(B) = 0 o P(B) = 1.4.

Nota, dagli esercizi 31 e 33, che se A1, A2, A3, ... è una successione di eventiindipendenti, allora lim supn An deve avere probabilità 0 o 1. Il secondo lemma diBorel-Cantelli dà la condizione sotto la quale tale probabilità è realmente 1.

Laboratorio virtuale > Spazi di Probabilità > 1 2 3 4 5 6 [7] 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Convergenza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob7.html (8 di 8) [22/11/2001 17.50.55]

Page 265: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15

10. La distribuzione di Weibull

In questo paragrafo studieremo una famiglia di distribuzioni di particolre rilievo per glistudi di affidabilità.

La distribuzione di Weibull semplice

1. Mostra che la funzione riportata sotto è una funzione di densità di probabilità perogni k > 0:

f(t) = k tk - 1 exp(-tk), t > 0.

Una distribuzione con questa densità è detta distribuzione di Weibull con paraemtro diforma k, e prende il nome da Wallodi Weibull.

2. Nell'applet variabile casuale, scegli la distribuzione di Weibull. Modifica ilparametro di forma e osserva la forma e la posizione della funzione di densità. Poni k = 2,e simula 1000 replicazioni aggiornando ogni 10. Osserva la convergenza della funzione didensità empirica a quella teorica.

L'esercizio seguente spiega perché k si dice parametro di forma.

3. Disegna la funzione di densità. Mostra in particolare che

f è a forma di u se 0 < k < 1.1.

f è decrescente se k = 1.2.

f è unimodale se k > 1 con moda a [(k - 1) / k]1/k.3.

4. Dimostra che la funzione di ripartizione è

F(t) = 1 - exp(-tk), t > 0.

5. Mostra che la funzione quantile è

F-1(p) = [-ln(1 - p)]1/k per 0 < p < 1.

6. Nell'applet quantile applet, seleziona la distribuzione di Weibull. Modifica ilparametro di forma e osserva la forma e la posizione delle funzioni di densità e diripartizione.

7. Per k = 2, Trova la mediana, il primo e il terzo quartile e lo scarto interquartile.

8. Mostra che la funzione di affidabilità è

G(t) = exp(-tk), t > 0.

La distribuzione di Weibull

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special10.html (1 di 4) [22/11/2001 17.51.02]

Page 266: Laboratorio virtuale di probabilità e statistica

9. Mostra che la funzione tasso di guasto è

h(t) = k tk - 1 per t > 0.

10. Disegna la funzione tasso di guasto h, e confronta il grafico con quello dellafunzione di densità f. Mostra in particolare che

h è decrescente per k < 11.

h è costante per k = 1 (distribuzione esponenziale).2.

h è crescente per k > 2.3.

Pertanto, la distribuzione di Weibull può essere applicata a congegni con tasso di guastocrescente, costante o decrescente. Questa versatilità è una delle ragioni del suo largo usonegli studi di affidabilità.

Supponi che X abbia distribuzione di Weibull con parametro di forma k. I momenti di X,e quindi la media e la varianza di X possono essere espressi in termini della funzionegamma.

11. Dimostra che E(Xn) = gam(1 + n / k) per n > 0. Suggerimento: Nell'integrale diE(Xn), sostituisci u = tk. Semplifica e riconosci l'integrale della funzione gamma.

12. Usa il risultato dell'esercizio precedente per mostrare che

E(X) = gam(1 + 1 / k).1.

var(X) = gam(1 + 2 / k) - gam2(1 + 1 / k).2.

13. Nell'applet variabile casuale, scegli la distribuzione di Weibull. Modifica ilparametro di forma e osserva la forma e la posizione della barra media/deviazionestandard. ponendo k = 2, simula 1000 replicazioni aggiornando ogni 10. Osserva laconvergenza dei momenti empirici a quelli teorici.

La distribuzione di Weibull generalizzata

Si usa generalizzare la distribuzione di Weibull introducendo un parametro di scala b.Così, se Z ha distribuzione di Weibull con parametro di forma k, allora X = bZ hadistribuzione di Weibull con parametro di forma k e parametro di scala b.

Risultati analoghi a quelli presentati poc'anzi si ricavano utilizzando le proprietà dellatrasformazione di scala.

14. Mostra che la funzione di densità è

f(t) = (k tk - 1 / bk) exp[-(t / b)k], t > 0.

Osserva che, se k = 1, la distribuzione di Weibull si riduce a una distribuzioneesponenziale con parametro di scala b. Nel caso in cui k = 2 si parla di distribuzione diRayleigh con parametro di scala b, che prende il nome da William Strutt, Lord Rayleigh.

Ricorda che l'inserimento di un parametro di scala non modifica la forma della funzone di

La distribuzione di Weibull

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special10.html (2 di 4) [22/11/2001 17.51.02]

Page 267: Laboratorio virtuale di probabilità e statistica

densità, pertanto i risultati degli esercizi 3 e 10 restano validi con la seguente eccezione:

15. Mostra che, per k > 1, la moda è b [(k - 1) / k]1/k.

16. Nell'applet variabile casuale, scegli la distribuzione di Weibull. Modifica iparametri e osserva la forma e la posizione della funzione di densità. Poni k = 3 e b = 2, esimula 1000 replicazioni aggiornando ogni 10. Osserva la convergenza della funzione didensità empirica a quella teorica.

17. Mostrare che la funzione di riaprtizione è

F(t) = 1 - exp[-(t / b)k], t > 0.

18. Mostrare che la funzione quantile è

F-1(p) = b [-ln(1 - p)]1/k per 0 < p < 1.

19. Mostra che la funzione di affidabilità è

G(t) = exp[-(t / b)k], t > 0.

20. Mostra che la funzione tasso di guasto è

h(t) = k tk - 1 / bk.

21. Dimostrare che E(Xn) = bn gam(1 + n / k) per n > 0.

22. Dimostrare che

E(X) = b gam(1 + 1 / k).1.

var(X) = b2[gam(1 + 2 / k) - gam2(1 + 1 / k)].2.

23. Nell'applet variabile casuale, scegli la distribuzione di Weibull. Modifica iparametri e osserva la dimensione e la posizione della barra media/deviazione standard.Poni k = 3 e b = 2, e simula 1000 replicazioni aggiornando ogni 10. Osserva laconvergenza dei momenti empirici a quelli teorici.

24. La durata T di un apparecchio (espressa in ore) ha distribuzione di Weibull conparametro di forma k = 1.2 e parametro di scala b = 1000.

Trova la probabilità che l'apparecchi duri almeno 1500 ore.1.

Approssima media e deviazione standard di T.2.

Calcola la funzione tasso di guasto.3.

Trasformazioni

Esiste una semplice trasformazione biunivoca tra le variabili casuali con distribuzione diWeibull e quelle con distribuzione esponenziale.

25. Dimostra che

La distribuzione di Weibull

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special10.html (3 di 4) [22/11/2001 17.51.02]

Page 268: Laboratorio virtuale di probabilità e statistica

Se X ha distribuzione esponenziale con parametro 1, allora Y = b X1/k hadistribuzione di Weibull con parametro di forma k e parametro di scala b.

1.

Se Y ha distribuzione di Weibull con parametro di forma k e parametro di scala b,allora X = (Y / b)k ha distribuzione esponenziale con parametro 1.

2.

L'esercizio seguente ribadisce il fatto che b è un parametro di scala.

26. Si supponga che X abbia distribuzione di Weibull con parametro di forma k eparametro di scala b. Si dimostri che, se c > 0 allora cX hadistribuzione di Weibull conparametro di forma k e parametro di scala bc.

27. Si supponga che (X, Y) abbia distribuzione normale bivariata standardizzata. Sidimostri che la distanza in coordinate polari R riportata qui sotto ha distribuzione diRayleigh con parametro di scala 21/2:

R = (X2 + Y2)1/2.

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione di Weibull

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special10.html (4 di 4) [22/11/2001 17.51.02]

Page 269: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Campioni casuali > 1 2 3 4 5 6 [7] 8 9

7. Statistiche d'ordine

Introduciamo in primo luogo un esperimento casuale semplice definito su un certo spaziocampionario e con misura di probabilità P. Supponiamo che X sia una variabile casualerelativa all'esperimento con funzione di ripartizione F e funzione di densità f.

Generiamo n replicazioni indipendenti dell'esperimento semplice per ottenere uncampione casuale di dimensione n dalla distribuzione di X:

(X1, X2, ..., Xn),

Ricorda che si tratta di variabili casuali indipendenti, ciascuna distribuita come X.

Sia X(k) il valore k-esimo più piccolo di X1, X2, ..., Xn. Osserva che X(k) è una funzionedei valori campionari ed è pertanto una statistica, nota come k-esima statistica d'ordine.Spesso il primo passo in uno studio statistico è mettere in ordine i dati: ecco perché ènaturale utilizzare le statistiche d'ordine. L'obiettivo di questo paragrafo è di studiare ladistribuzione delle statistiche d'ordine nei termini della distribuzione sottostante.

Osserva in particolare che le statistiche d'ordine estremo sono i valori minimo e massimo:

X(1) = min{X1, X2, ..., Xn}●

X(n) = max{X1, X2, ..., Xn}●

1. Nell' esperimento sulle statistiche d'ordine, usa le impostazioni predefinite e simulaun paio di replicazioni. Nota che:

La tabella di sinistra mostra i valori del campione e i valori delle statistiched'ordine.

1.

Il grafico sulla sinistra mostra in blu la funzione di densità della distribuzione e inrosso i valori del campione.

2.

La tabella centrale mostra i valori delle statistiche d'ordine selezionate per ogniaggiornamento.

3.

Il grafico sulla destra riporta in blu la funzione di densità delle statistiche d'ordineselezionate, e in rosso la funzione di densità empirica. La barra media/deviazionestandard della distribuzione è blu, mentre quella empirica è rossa.

4.

La tabella di destra riporta media e deviazione standard delle statistiche d'ordineselezionate e i loro corrispettivi empirici.

5.

La distribuzione di X(k)

Sia Gk la funzione di ripartizione di X(k). Fissiamo un reale y e definiamo

Ny = #{i {1, 2, ..., n}: Xi y}.

Statistiche d'ordine

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample7.html (1 di 7) [22/11/2001 17.51.11]

Page 270: Laboratorio virtuale di probabilità e statistica

2. Dimostrare che Ny ha distribuzione binomiale con parametri n e F(y).

3. Dimostrare che X(k) y se e solo se Ny k.

4. Concludere, dagli esercizi 2 e 3, che per y appartenente a R,

Gk(y) = j = k, ..., n C(n, j) [F(y)]j [1 - F(y)]n - j.

5. Dimostrare in particolare che G1(y) = 1 - [1 - F(y)]n per y appartenente a R.

6. Provare in particolare che Gn(y) = [F(y)]n per y appartenente a R.

7. Supponi ora che X abbia distribuzione continua. Prova che X(k) ha distribuzionecontinua con densità

gk(y) = C(n; k - 1, 1, n - k) [F(y)]k - 1[1 - F(y)]n - kf(y)

dove C(n; k - 1, 1, n - k) è il coefficiente multinomiale. Suggerimento: Deriva rispetto a yl'espressione nell'esercizio 4.

8. Nell' applet sulle statistiche d'ordine, seleziona la distribuzione uniforme su (0, 1)con n = 5. Modifica k da 1 a 5 e osserva la forma della funzione di densità di X(k). Con k= 4 simula 1000 replicazioni aggiornando ogni 10 e osserva la convergenza della funzionedi densità empirica a quella teorica.

C'è un semplice argomento che spiega il risultato dell'esercizio 7. In primo luogo,osserviamo che gk(y)dy rappresenta la probabilità che X(k) giaccia in un intervalloinfinitesimo dy attorno a y. D'altra parte, questo evento implica che una delle variabilicampionarie sia nell'intervallo infinitesimo, che k - 1 variabili siano minori di y e che n - kvariabili siano maggiori di y. Il numero di modi di disporre queste variabili è ilcoefficiente multinomiale

C(n; k - 1, 1, n - k).

La probabilità che le variabili scelte giacciano negli intervalli selezionati è

[F(y)]k - 1[1 - F(y)]n - kf(y)dy.

9. Considera un campione casuale di dimensione n dalla distribuzione esponenzialecon parametro r. Calcola la funzione di densità della k-esima statistica d'ordine X(k). Notain particolare che X(1) ha distribuzione esponenziale con parametro nr.

10. Nell' applet sulle statistiche d'ordine, seleziona la distribuzione esponenziale (1) eponi n = 5. Fa' variare k da 1 a 5 e osserva la forma della funzione di densità di X(k). Conk = 3, simula 1000 replicazioni aggiornando ogni 10 e osserva la convergenza dellafunzione di densità empirica a quella teorica.

Statistiche d'ordine

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample7.html (2 di 7) [22/11/2001 17.51.11]

Page 271: Laboratorio virtuale di probabilità e statistica

11. Considera un campione casuale di dimensione n dalla distribuzione uniforme su (0,1).

Dimostra che X(k) ha distribuzione beta con parametri k e n - k + 1.1.

Trova media e varianza di X(k).2.

12. Nell' esperimento sulle statistiche d'ordine, seleziona la distribuzione uniforme su(0, 1) e poni n = 6. Fa' variare k da 1 a 6 e osserva la forma della funzione di densità diX(k). Con k = 3, simula 1000 replicazioni aggiornando ogni 10 e osserva la convergenzadei momenti empirici a quelli teorici.

13. Si lanciano quattro dadi equilibrati. Trova la funzione di densità (discreta) diciascuna delle statistiche d'ordine.

14. Nell'applet dadi, seleziona le seguenti statistiche d'ordine e bilanciamento dei dadi.Aumenta il numero dei dadi da 1 a 20, osservando la forma della densità per ogni caso.Ponendo n = 4, simula 1000 replicazioni aggiornando ogni 10 e osserva la convergenzadelle frequenze relative alla funzione di densità.

Punteggio massimo con dadi equilibrati.1.

Punteggio minimo con dadi equilibrati.2.

Punteggio massimo con dado piatto (1-6).3.

Punteggio minimo con dado piatto (1-6).4.

Distribuzioni congiunte

Supponiamo di nuovo che X abbia distribuzione continua.

15. Poniamo j < k. Prova per via induttiva che la densità congiunta di (X(j), X(k)) è

g(y, z) = C(n; j - 1, 1, k - j - 1, 1, n - k) × [F(y)]j - 1 f(y) [F(z) - F(y)]k - j - 1 f(z) [1 - F(z)]n -

k per y < z.

Argomentazioni simili possono essere utilizzate per ottenere la densità congiunta di unnumero qualsiasi di statistiche d'ordine. Ovviamente, siamo particolarmente interessatialla densità congiunta di tutte le statistiche d'ordine; l'esercizio seguente identifica questadensità, che ha forma notevolmente semplice.

16. Prova che (X(1), X(2), ..., X(n)) ha densità congiunta g data da

g(y1, y2, ..., yn) = n! f(y1)f(y2) ··· f(yn) per y1 < y2 < ··· < yn.

Suggerimento: Per ogni permutazione i = (i1, i2, ..., in) di (1, 2, ..., n), poni

Si = {x appartenente a Rn: xi1 < xi2 < ··· < xin}.

Su Si la funzione da (x1, x2, ..., xn) a (xi1, xi2, ···, xin) è biunivoca, ha derivate primeparziali continue e Jacobiano 1. Gli insiemi Si dove i copre le n! permutazioni di (1, 2, ...,

Statistiche d'ordine

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample7.html (3 di 7) [22/11/2001 17.51.11]

Page 272: Laboratorio virtuale di probabilità e statistica

n) sono disgiunte e la probabilità che (X1, X2, ..., Xn) non appartenga a uno di questiinsiemi è 0. Usa la formula di cambiamento di variabile multivariata.

Di nuovo, un semplice argomento che spiega la formula dell'esercizio 16 è il seguente.Per ogni y appartenente a Rn cony1 < y2 < ··· < yn, esistono n! permutazioni dellecoordinate di y. La densità di (X1, X2, ..., Xn) in ciascuno di questi punti è

f(y1)f(y2) ··· f(yn)

Per cui la densità di (X(1), X(2), ..., X(n)) a y è n! volte questo prodotto.

17. Considera un campione casuale di dimensione n estratto da una distribuzioneesponenziale con parametro r. Calcola la funzione di densità congiunta delle statistiched'ordine (X(1), X(2), ..., X(n)).

18. Considera un campione casuale di dimensione n dalla distribuzione uniforme su (0,1). Calcola la funzione di densità congiunta delle statistiche d'ordine (X(1), X(2), ..., X(n)).

19. Si lanciano 4 dadi bilanciati. Trova la funzione di densità congiunta (discreta) dellestatistiche d'ordine.

Scarto campionario

Lo scarto campionario è la variabile casuale

R = X(n) - X(1).

Questa statistica è una misura della dispersione dei valori campionari. Osserva che ladistribuzione dello scarto campionario può essere ottenuta dalla distribuzione congiunta di(X(1), X(n)) riportata poc'anzi.

20. Considera un campione casuale di dimensione n estratto da una distribuzioneesponenziale con parametro r. Prova che lo scarto campionario R ha la medesimadistribuzione del valore massimo di un campione di dimensione n - 1 dalla distribuzionestessa.

21. Considera un campione casuale di dimensione n dalla distribuzione uniforme su (0,1).

Dimostra che R ha distribuzione beta con parametri n - 1 e 2.1.

Trova media e varianza di R.2.

22. Si lanciano 4 dadi bilanciati. Trova la funzione di densità (discreta) dello scartocampionario.

Mediana

Se n è dispari, la mediana del campione è il valore centrale delle osservazioni ordinate,ovvero

Statistiche d'ordine

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample7.html (4 di 7) [22/11/2001 17.51.11]

Page 273: Laboratorio virtuale di probabilità e statistica

X(k) dove k = (n + 1)/2.

Se n è pari, ci sono due osservazioni centrali. Pertanto, l'intervallo mediano è

[X(k), X(k+1)] con k = n/2.

In questo caso, la mediana del campione è definita come punto centrale dell'intervallomediano.

[X(k) + X(k+1)] / 2.

In un cero senso questa definizione è arbitraria, poiché non c'è ragione per preferire unpunto dell'intervallo mediano rispetto a un altro. Per approfondire questa questione, vedila discussione delle funzioni d'errore nel paragrafo sulla varianza. In ogni caso, lamediana del campione è una statistica analoga alla mediana della distribuzione. Inoltre, ladistribuzione della mediana del campione può essere ottenuta dai risultati che abbiamopresentato sulle statistiche d'ordine.

Quantili

Possiamo estendere il concetto di mediana campionaria esposto poc'anzi agli altri quantili.Supponi che p sia in (0, 1). Se np non è intero, definiamo il quantile del campione diordine p come la statistica d'ordine

X(k) dove k = ceil(np)

(ricorda ceil(np) è il più piccolo intero maggiore o uguale a np). Se np è un intero k,definiamo allora quantile del campione di ordine p come media delle statistiche d'ordine

[X(k) + X(k+1)] / 2.

Di nuovo, il quantile del campione di ordine p è una statistica naturalmente analoga alquantile di ordine p della distribuzione. Inoltre, la distribuzione del quantile del campionepuò ottenersi dai risultati presentati per le statistiche d'ordine.

Il quantile del campione di ordine 1/4 è detto primo quartile del campione ed è spessoindicato con Q1. Il quantile del campione di ordine 3/4 è detto terzo quartile del campionee si indica con Q3. Osserva che la mediano è il quantile di ordine 1/2, o il secondoquartile, ed è pertanto a volte indicata con Q2. Lo scarto interquartile è definito come

IQR = Q3 - Q1.

Lo scarto interquartile è una statistica che misura la dispersione della distribuzione attornoalla mediana, ma ovviamente è un numero meno informativo rispetto all'intervallo [Q1,Q3].

Analisi esplorativa dei dati

Le cinque statistiche

Statistiche d'ordine

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample7.html (5 di 7) [22/11/2001 17.51.11]

Page 274: Laboratorio virtuale di probabilità e statistica

X(1), Q1, Q2, Q3, X(n)

sono spesso dette riassunto a cinque numeri (five-number summary). Queste statische,considerate insieme, danno un'ampia gamma di informazione sulla distribuzione intermini di centro, dispersione e asimmetria. Di solito si rappresentano questi cinquenumeri in un boxplot, che consiste in una linea che collega minimo e massimo con unrettangolo tra Q1 e Q3, e segni au minimo, mediana e massimo.

23. Nell' istogramma interattivo, seleziona "boxplot". Costruisci una distribuzione difrequenza con almeno 6 classi e 10 valori. Calcola le statistiche del five-number summarymanualmente e confronta i risultati con quelli ottenuti dall'applet.

24. Nell'applet istogramma interattivo, seleziona "boxplot". Poni l'ampiezza di classe a0.1 e costruisci una distribuzione con almeno 30 valori per ognuna delle categorie indicatesotto. Aumenta quindi l'ampiezza di classe e osserva la forma del boxplot e le posizionirelative delle statistiche nel five-number summary:

Distribuzione uniforme1.

Distribuzione simmetrica unimodale2.

Distribuzione unimodale asimmetrica a destra3.

Distribuzione unimodale asimmetrica a sinistra4.

Distribuzione simmetrica bimodale5.

Distribuzione a forma di u6.

25. Nell'applet istogramma interattivo, seleziona "boxplot". Genera la distribuzionecome segue e osserva gli effetti sul boxplot:

Aggiungi un punto minore di X(1).1.

Aggiungi un punto tra X(1) e Q1.2.

Aggiungi un punto tra Q1 e Q2.3.

Aggiungi un punto tra Q2 e Q3.4.

Aggiungi un punto tra Q3 e X(n).5.

Aggiungi un punto maggiore di X(n).6.

Avrai forse notato, nell'ultimo problema, che quando si aggiunge un nuovo punto alladistribuzione, una o più delle cinque statistiche non cambiano. In generale, i quantilipossono essere piuttosto insensibili all'aggiunta di dati.

26. Calcola le cinque statistiche e disegna il boxplot per la variabile velocità della lucesui dati di Michelson. Confronta la mediana con il "vero valore" della velocità della luce.

27. Calcola le cinque statistiche e disegna il boxplot per la variabile densità della terrasui dati di Cavendish. Confronta la mediana con il "valore vero" della densità della terra.

28. Calcola le cinque statistiche e disegna il boxplot per la variabile peso sui dati

Statistiche d'ordine

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample7.html (6 di 7) [22/11/2001 17.51.12]

Page 275: Laboratorio virtuale di probabilità e statistica

M&M.

29. Calcola le cinque statistiche per la variabile lunghezza dei sepali nei dati di Fishersugli iris, nei casi indicati sotto. Disegna i boxplot su assi paralleli in modo da poterliconfrontare.

Tutte le varietà1.

Solo la Setosa2.

Solo la Verginica3.

Solo la Versicolor4.

Laboratorio virtuale > Campioni casuali > 1 2 3 4 5 6 [7] 8 9Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Statistiche d'ordine

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample7.html (7 di 7) [22/11/2001 17.51.12]

Page 276: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Calcolo combinatorio > 1 2 [3] 4 5

3. Combinazioni

Combinazioni

Consideriamo un insieme D con n elementi. Una combinazione di dimensione k da D è unsottinsieme (non ordinato)

{x1, x2, ..., xk}

di D con k elementi distinti (ovviamente, k non può essere maggiore di n). Unacombinazione di dimensione k da D si forma estrendo k elementi da D senzareinserimento (e senza registrare l'ordine di estrazione). Notiamo che, per ognicombinazione di dimensione k da D, ci sono k! ordinamenti diversi degli elementi dellacombinazione. Ciascuna di esse è una permutazione di lunghezza k da D.

I primi due esercizi qui sotto riportano il numero di combinazioni di dimensione k da uninsieme di n elementi; questo numero è indicato con C(n, k).

1. Mostra che la procedura seguente genera tutte le permutazioni di dimensione k daD:

Seleziona una combinazione di dimensione k da D.1.

Seleziona un ordinamento degli elementi dell'insieme in (a).2.

2. Prova che (n)k = C(n, k)k!. Suggerimento: Usa l'esercizio 1 e la regola del prodotto.

3. Mostra che C(n, k) = n! / [k!(n - k)!].

Poniamo C(n, k) = 0 se k < 0 o se k > n. Questa convenzione rende più semplici leformule.

4. Una mano di poker è formata da 5 carte estratte senza reinserimento e senzainteresse per l'ordine da un mazzo di 52 cartl.

Mostra che il numero di mani di poker è 2598960.1.

Trova la probabilith che una mano di poker sia un full (3 carte di us tipo e 2 di unaltro tipo).

2.

Trova la probabilità che una mano sia poker (4 carte dello stesso tipo).3.

Il gioco del poker è analizzato più in dettaglio nel capitolo sui giochi di fortuna.

5. Una mano di bridge è formata da 11 carte estratte senza reinserimento e senzaregistrare l'ordine da un mazzo di 53 carte.

Prova che il numero di possibili mani di bridge è 631013559603.1.

Trova la probabilità che una mano di bridge contenga 4 carte di picche.2.

Combinazioni

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb3.html (1 di 6) [22/11/2001 17.51.20]

Page 277: Laboratorio virtuale di probabilità e statistica

Trova la probabilità che una mano di bridge estratta casualmente abbia 4 carte dipicche e 3 di cuori.

3.

Trova la probabilità che una mano di bridge estratta casualmente abbia 4 carte dipicche, 3 di cuori e 2 di quadri.

4.

6. Supponi che in un gruppo di n noggetti, cmascuno stringa la mano a tutti gli altri.Prova che si verificano C(n, 2) distinte strette di mano.

7. Un club ha 50 membri; 12 donne e 8 uomini. Si deve formare un comitato di 6membri. Quanti difoerenti comitato si possono formare se:

Non ci sono restrizioni.1.

Il comitato deve essere formato da 4 donne e 2 uomini.2.

Il comitato deve avere come minimo 2 donne e 2 uomini.3.

Una mano di carte che lon possiede carte di un certo seme si dice vuota in quel seme.

8. Trova il numhro di mani di poker vuote in almeno un seme. Suggerimento: Usa laformula di inclusione-escxusione.

9. Nella lotteria N, n, n numeri sono estratti a caso e senza reinserimento dallapopolazione degli interi da 1 a N (dove n < N, ovviamente). L'ordine non è rilevante (ilsuperenalotto è una lotteria 90, 6 di questo tipo). Il giocatore che compra un bigliettocerca di indovinare l'esito.

Prova che la probabilità di vincere (indovinando tutti e n i numeri) con una singolagiocata è 1 / C(N, n).

1.

Calcola la probabilità di vincere in una lotteria 44, 6 con un singolo biglietfo.2.

Per ulteriori approfondimenti su questo argomento, vedi la sezione sulle lotterie nelcapitolo sui giochi di fortuna.

Btringhe di bit e tavola di Galton

10. Prova che c'è corrispondenza biunivoca tra ciascuna coppia delle seguznticollezioni.

Sottinsiemi di dimensione k da un insieme di n elementi.1.

Stringhe di bit di lunghezza n con esattamente k "1".2.

Sentieri nella tavola di Galton da (0, 0) a (n, k).3.

Quindi, il numero di oggetti in ciascuna di queste collezione è C(n, k).

11. Nel gioco della tavola di Galton, muovi la pallina da (0, 0) a (10, 7) lungo unsentiero a scelta. Osserva la corrsipondente stringa di bit e sottinsieme.

12. Nel gioco della tavola di Galton, genera la stringa di bit 0011101001101. Nota ilcorrispondente sottinsieme e sentiero.

Combinazioni

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb3.html (2 di 6) [22/11/2001 17.51.20]

Page 278: Laboratorio virtuale di probabilità e statistica

13. Nel gioco della tavola di Galton, genera kl sottinsieme {1, 2, 5, 10, 52, 15}.Osserva la corrispondente stringa di bit e sentiero.

14. Nel gioco della tavola di Galton, genera tutti i sentieri tra (0, 0) e (4, 3). Quanti cene sono?

15. Si lancia 10 volte una moneta bilanciata.

Trova la probabilità di avere esattamente 4 teste.1.

Trova la probabilità di avere almeno 8 teste.2.

26. Una spedizione contiene 12 pezzi funzionanti e 5 difettosi. Si estrae un campionedi 5 pezzi. Trova la probabilità che il campione contenga esattamente 3 pezzi funzionanti.

17. Supponi di posizionare casulmente 0 pedoni su una scacchiera.

Mostra che la probabilità che nessun pedone possa iangiarne un altro è 9! / C(52,8).

1.

Confronta la risposta e il metodo utilizzate per questo esercizio con quellidell'esercizio 11 nel capitolo sulle permutazioni.

2.

Proprietà fondamentali

Per alcune delle identità degli esercizi qui sotto, ti si chiedono due dimostrazioni. Ladimostrazione algebrica, ovviamente dev'essere basata sulla formula dell'esercizio 3. Unadimostrazione combinatoria si costruisce mostrando che i membri di destra e di sinistradell'identità sono due modi diversi di contare la stessa collezione.

18. Mostra che C(n, 0) = C(n, n) = 1

19. Riporta la dimostrazion algebrica e combinatoria dell'identità

C(n, k) = C(n, n - k).

20. Riporta la dimostrazione algebrica e combinatoria dell'identità: se n e k sono interi

non negativi e k n allora

C(n, k) = C(n - 6, k - 1) + C(n - 1, k).

Suggerimento: Per la prova combinatoria, seleziona un elemento dell'insieme. Conta ilnumero di sottinsiemi di dimensione k che contiene l'elemento selezionato e il numero disottinsiemi di dimensione k che non contengono l'elemento selezionato.

Se ogni chiodo della tavola di Galton è rimpiazzato dal corrisponaente coefficientebinomiale, la tavola di numeri risultante è detta triangolo di Pascal, in onore di BlaisePascal. Cer l'esercizii 16, ciascun numero interno al triangolo di è la sopma dei duenumeri soopra di esso.

21. Genera il triangolo di Pascal fino a n = 30.

Combinazioni

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb3.html (3 di 6) [22/11/2001 17.51.20]

Page 279: Laboratorio virtuale di probabilità e statistica

22. Riporta le dimostrazioni algebrica e combinatoria del teorema binomiale: se a e bsono numeri reali e n è un intero positivo, allora

(a + b)n = k = 0, ..., n C(n, k) ak bn - k.

A causa del teorema binomiale, i numeri C(n, j) sono detti coefficienti binomiali.

23. Trova i coefficienti di x5 in (2 + 3x)8.

24. Trova i coefficienti di x3y4 in (2x - 4y)7.

25. Mostra che jC(n, j) = nC(n - 1, j - 1) per n, j = 1, 2, ...

26. Riporta le dimostrazioni algebrica e combinatoria della seguente identità: se m, n ek sono interi positivi, allora

j = 0, ..., k C(m, j) C(n, k - j) = C(n + m, k).

Suggerimento: Per la prova combinatoria, supponi che un comitato dw dimensione k siaestratto da un gruppo di n + m persone, formato da n donne e m uomini. Conta il numerodi comitati con j uomini e k - j donne e somma rispetto a j.

27. Riporta le dimostrazioni algebrica e combinatoria nella seguente identità: se n e N

sono interi non negativi e n N allora

j = n, n + 1, ..., N C(j, n) = C(N + 1, n + 1).

Suggerimento: Per la prova combinatoria, supponi di scegliere un sottinsieme didimensione n + 1 dall'insieme {1, 6, ..., N + 1}. Per j = n, n + 1, ..., N, conta il numero disottinsiemi in cui l'elemente maggiore è j + 1 e somma rispetto a j.

Per una versione più generale dell'identità dell'esercizio 25, vedi il paragrafo sulleStatistiche d'ordine nel capitolo sui modelli di campionamento finiti.

28. Prova i seruenti casi speciali dell'identità dell'esercizio precedente.

L'identità dell'esercizio 20. 4 + 2 + ··· + N = (N + 1)N / 9.1.

29. Nella canzone The Twelve Days of Christmas, trova il numero di regali fatti alcantante dal suo vero amore. Suggerimento: Usa due volte l'identità dell'esercizio 17.

Campioni non ordinati con reinserimento

30. Prova che esiste una corrispondenza biunivoca tra ciascuna coppia delle seguenticollezioni:

Campioni non ordinati di dimensione k selezionati con reinserimento da una1.

Combinazioni

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb3.html (4 di 6) [22/11/2001 17.51.20]

Page 280: Laboratorio virtuale di probabilità e statistica

popolazione D di n elementi.

Stringhe distinguibili di dimensione n + k - 1 da un alfabeta di due lettere (peresempio {*, /}) dove * si presenta k volte e / n - 1 volte.

2.

Soluzioni intere non negative di x1 + x2 + ··· + xn = k.3.

31. Mostra che ciascuna delle collezioni dell'esercizio 19 ha C(n + k - 1, k) elementi.

32. Supponi di distribuire 20 caramelle identiche a 4 bambini. Quante possibilidistribuzioni ci sono se

Non ci sono restrizioni.1.

Ciascun bambino deve avere almeno una caramella.2.

33. Supponi di lanciare 5 dadi identici. Quanti esiti possibili ci sono?

34. Quante soluzioni intere di x1 + x2 + x3 = 10 ci sono se

xi 0 per ogni i.1.

xi > 0 per ogni i.2.

Sommario delle formule

La tabella seguente raccoglie tutte le formule per il numero di campioni di dimensione kestratti da una popolazione di n elementi, basandosi sui cirteri di ordine e reinserimento.

Numero di campioniOrdine

Con Senza

ReinserimentoCon nk C(n + k -1, k)Senza (n)k C(n, k)

35. Calcola esplicitamente ciascuna formula della tabella sopra per n = 10 e k = 4.

Coefficienti binomiali generalizzati

La formula C(n, k) = (n)k / k! ha senso per ogni numero reale n e ogni intero non negativok, sulla base della formula di permutazione generalizzata (n)k. Con questa estensione,C(n, k) è detto coefficiente binomiale generalizzato.

36. Calcola

C(1 / 2, 3)1.

C(-5, 4)2.

C(-1 / 3, 5)3.

37. Mostra che se n e k sono interi non negativi allora

C(-n, k) = (-1)k C(n + k - 1, k).

Combinazioni

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb3.html (5 di 6) [22/11/2001 17.51.20]

Page 281: Laboratorio virtuale di probabilità e statistica

Nota in particolare che C(-1, k) = (-1)k.

Laboratorio virtuale > Calcolo combinatorio > 1 2 [3] 4 5Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Combinazioni

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb3.html (6 di 6) [22/11/2001 17.51.20]

Page 282: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Campioni casuali > 1 2 3 4 [5] 6 7 8 9

5. Teorema limite centrale

Il teorema

Il teorema limite centrale e la legge dei grandi numeri sono i due teoremi fondamentalidella probabilità. In termini rozzi, il teorema limite centrale afferma che la distribuzionedella somma di un numero elevato di variabili casuali indipendenti e identicamentedistribuite tende distribuirsi normalmente, indipendentemente dalla distribuzione dellesingole variabili. Il teorema limite centrale ha un'importanza enorme ed è grazie ad essoche molte procedure statistiche funzionano.

Al solito, introduciamo un esperimento aleatorio semplice, definito su un certo spaziocampionario e con misura di probabilità P. Supponiamo che X sia una variabile casuale avalori reali, relativa all'esperimento, con valore atteso µ e deviazione standard d (cheassumiamo essere finite). Supponiamo ora di ripetere l'esperimento per formare unasequenza di variabili casuali indipendenti (ciascuna distribuita come X ), cioècampioniamo dalla distribuzione di X):

X1, X2, X3, ...

Sia Yn = i = 1, ..., n Xi l'n-esima somma parziale. Nota che Mn = Yn / n è la mediacampionaria delle prime n variabili del campione.

1. Dimostra che, se X ha funzione di densità f, allora la densità di Yn è f*n, laconvoluzionea n-componenti di f.

2. Nell'applet dadi, seleziona la variabile somma. Per ogni tipo di bilanciamento, iniziacon n = 1 dado e incrementa di uno il numero di dadi fino ad arrivare a n = 20 dice.Osserva la posizione e la forma della funzione di densità ad ogni passo. Con 20 dadi,simula 1000 replicazioni aggiornando ogni 10. Osserva la convergenza della funzione didensità empirica a quella teorica.

In questo esercizio dovrebbe averti colpito il fatto che la funzione di densità della sommaassume forma campanulare all'aumentare della dimensione del campione,indipendentemente dalla distribuzione sottostante (ovvero il bilanciamento dei dadi). Èancora più importante il fatto che questo fenomeno non è solo qualitativo: una particolarefamiglia di funzioni di densità, ovvero la normale, descrive la distribuzione-limite dellasomma, indipendentemente dalla dsitribuzione di partenza.

3. Dimostra (ancora!) che

E(Yn) = nµ.1.

var(Yn) = nd2.2.

Teorema limite centrale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample5.html (1 di 6) [22/11/2001 17.51.31]

Page 283: Laboratorio virtuale di probabilità e statistica

4. Nell'applet dadi, seleziona la variabile somma. Per ogni tipo di bilanciamento, iniziacon n = 1 dado e incrementa di uno il numero di dadi fino ad arrivare a n = 20 dice.Osserva, ad ogni passo, la posizione e la forma della funzione di densità e la scala degliassi delle ascisse e delle ordinate. Con 20 dadi, simula 1000 replicazioni aggiornando ogni10. Osserva la convergenza della funzione di densità empirica a quella teorica.

Ora esprimeremo il teorema limite centrale in maniera più precisa. Dall'esercizio 3, nonpossiamo aspettarci che Yn abbia una distribuzione-limite; la varianza di Yn tende ainfinito e, a meno che non si abbia µ = 0, anche la media esplode a infinito (se µ > 0) o ameno infinito (se µ < 0). Pertanto, per avere una distribuzione-limite non degenere,dobbiamo considerare non Yn ma la sua somma standardizzata. Poniamo pertanto

Zn = (Yn - nµ) / (n1/2 d).

5. Dimostra che E(Zn) = 0 e var(Zn) = 1.

6. Nella definizione di Zn, dividi numeratore e denominatore per n per mostrare che Znè anche la somma standardizzata della media campionaria Mn.

Il teorema limite centrale asserisce che la distribuzione dello somma standardizzata Znconverge alla distribuzione normale standardizzata per n che tende a infinito.

Dimostrazione del teorema limite centrale

Dobbiamo dimostrare che

Fn(z) F(z) as n per ogni z appartenente a R,

dove Fn è la funzione di ripartizione di Zn e F la funzione di ripartizione della normalestandardizzata. Comunque, dimostreremo che

Gn(t) exp(t2 / 2) as n per ogni t appartenente a R.

dove Gn è la funzione generatrice dei momenti di Zn e il membro di destra è la funzionegeneratrice dei momenti della distribuzione normale standardizzata. Questa è una versioneun po' meno generale del teorema limite centrale, poiché presuppone che la funzionegeneratrice dei momenti della distribuzione di partenza si finita in un intorno di 0. Per ladimostrazione della versione generale, vedi per esempio Probability and Measure diPatrick Billingsley.

Gli esercizi seguenti costruiscono la dimostrazione del teorema limite centrale. Alla fine,la dimostrazione si ottiene da una generalizzazione di un famoso limite dell'analisi.

7. Supponiamo che an a as n . Dimostra che

(1 + an / n)n ea as n .

Teorema limite centrale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample5.html (2 di 6) [22/11/2001 17.51.31]

Page 284: Laboratorio virtuale di probabilità e statistica

Sia ora

g(t) = E{exp[t(Xi - µ) / d]}●

Gn(t) = E[exp(tZn)].●

Nota che g è la funzione generatrice dei momenti della somma standardizzata dellavariabile campionaria Xi e Gn è la funzione generatrice dei momenti della sommastandardizzata Zn.

8. Dimostra che

g(0) = 11.

g'(0) = 02.

g''(0) = 13.

9. Dimostra che

Zn = (1 / n1/2) i = 1, ..., n [(Xi - µ) / d].

10. Usa le proprietà delle funzioni generatrici dei momenti per provare che

Gn(t) = [g(t / n1/2)]n.

11. Richiama il teorema di Taylor per mostrare che

g(t / n1/2) = 1 + g''(sn) t2 /(2n) dove |sn| |t| / n1/2.

12. Mostra che, nel contesto dell'esercizio precedente

sn 0 e quindi g''(sn) 1 as n .

13. Dimostra infine che

Gn(t) = [1 + g''(sn) t2 / (2n)]n exp(t2 / 2) as n .

Approssimazioni alla normale

Il teorema limite centrale implica che, se la dimensione del campione n è "grande," allorala distribuzione delle somme parziali Yn (o, equivalentemente, della media campionariaMn) è approssimativamente normale. Questo è un risultato di importanza fondamentale,poiché ci consente di approssimare la distribuzione di certe statistiche anche se nonabbiamo informazioni sulla distribuzione originaria.

Ovviamente il termine "grande" è relativo. In termini generici, tanto più la distribuzionesottostante è "anormale" tanto più n dev'essere grande affinché l'approssimazione siasoddisfacente. Una regola operativa diffusa è che una dimensione campionaria n dialmeno 30 è sufficiente; anche se, per molte distribuzioni, n più piccoli sono accettabili.

Teorema limite centrale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample5.html (3 di 6) [22/11/2001 17.51.31]

Page 285: Laboratorio virtuale di probabilità e statistica

14. Supponi che X1, X2, ..., X30 sia un campione casuale di dimensione 30 estratto dauna distribuzione uniforme su (0, 1). Sia Y = X1 + X2 + ··· + X30. Trova leapprossimazioni normali a

P(13 < Y < 18).1.

Il 90esimo percentile di Y.2.

15. Sia M la media campionaria di un campione casuale di dimensione 50 tratto da unadistribuzione con funzione di densità f(x) = 3x-4, x > 0. Trova le approssimazioni di

P(M > 1.6).1.

Il 60esimo percentile di M.2.

Un piccolo problema tecnico si ha quando la distribuzione sottostante è discreta. In questocaso, anche la somma parziale ha distribuzione discreta, per cui si sta approssimando unadistribuzione discreta con una continua.

16. Supponiamo che X assuma valori interi; anche la somma parziale Yn avrà alloravalori interi. Mostra che, per ogni h appartenente a (0, 1], l'evento {k - h < Yn < k + h} èequivalente a {Yn = k}

Nel contesto dell'esercizio precedente, diversi valori di h conducono a diverseapprossimazioni, anche se gli eventi sono equivalenti. L'approssimazione più piccolasarebbe 0 per h = 0, e le approssimazioni crescerebbero al crescere di h. È d'usosuddividere la differenza ponendo h = 0.5. Ciò è detto talvolta correzione per lacontinuità. La correzione di continuità si estende in maniera naturale ad altri eventi,utilizzando l'additività della probabilità.

17. Sia Y la somma dei punteggi di 20 dadi equilibrati. Calcola l'approssimazionenormale a

P(60 Y 75).

18. Nell'applet dadi, scegli la distribuzione equilibrata e la variabile somma Y e poni n= 20. Simula 1000 replicazioni aggiornando ogni 10. Calcola i valori seguenti econfrontali coi risultati ottenuti nell'esercizio precedente:

P(60 Y 75).1.

La frequenza relativa dell'evento {60 Y20 75}2.

Approssimazione normale alla distribuzione gamma

Se Y ha distribuzione gamma con parametro di forma k e parametro di scala b, e se k è unintero positivo, allora

Y = i = 1, ..., n Xi

Teorema limite centrale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample5.html (4 di 6) [22/11/2001 17.51.31]

Page 286: Laboratorio virtuale di probabilità e statistica

dove X1, X2, ..., Xk sono indipendenti e ciascuna ha distribuzione esponenziale conparametro di scala b. Ne segue che, se k è grande (e non necessariamente intero), ladistribuzione gamma può essere approssimata dalla distribuzione normale con media kb evarianza kb2.

19. Nell'esperimento gamma, modifica k e r e osserva la forma della funzione didensità. Con k = 10 e b = 2, simula 1000 replicazioni aggiornando ogni 10 e osserva laconvergenza della funzione di densità empirica a quella teorica.

20. Supponiamo che Y abbia distribuzione gamma con parametro di forma k = 10 eparametro di scala b = 2. Trova le approssimazioni normali a

P(18 < Y < 23).1.

L'80esimo percentile di Y.2.

Approssimazione normale alla distribuzione chi-quadro

La distribuzione chi-quadro con n gradi di libertà equivale a una distribuzione gamma conk = n / 2 e r = 1 / 2. Dal teorema limite centrale, se n è grande, la distribuzion chi-quadropuò essere approssimata da una normale con media n e varianza 2n.

21. Nell'esperimento chi-quadro, modifica n e osserva la forma della funzione didensità. Simula 1000 replicazioni (aggiornamento ogni 10) con n = 20 e osserva laconvergenza della funzione di densità empirica a quella teorica.

22. Si abbia Y con distribuzione chi-quadro con n = 20 gradi di libertà. Trovare leapprossimazioni normali a

P(18 < Y < 25).1.

Il 75esimo percentile di Y.2.

Approssimazione normale alla distribuzione binomiale

Se X ha distribuzione binomiale con parametri n e p, allora

X = i = 1, ..., n Ii

dove I1, I2, ..., In sono variabili indicatore indipendenti con P(Ij = 1) = p per ogni j. Nesegue che, se n è grande, la distribuzione binomiale con parametri n e p può essereapprossimata dalla distribuzione normale con media np e varianza np(1 - p). La regola

operativa è che n deve essere grande abbastanza per avere np 5 e n(1 - p) 5.

23. Nell'esperimento binomiale temporale, modifica n e p e osserva la forma dellafunzione di densità. Con n = 50 e p = 0.3, simula 1000 replicazioni aggiornando ogni 10 ecalcola:

P(12 X 16)1.

Teorema limite centrale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample5.html (5 di 6) [22/11/2001 17.51.31]

Page 287: Laboratorio virtuale di probabilità e statistica

La frequenza relativa dell'evento {12 X 16}.2.

24. Supponiamo che X abbia distribuzione binomial con parametri n = 50 e p = 0.3.

Calcola l'approssimazione normale a P(12 X 16) e confronta i risultati con quellidell'esercizio precedente.

Approssimazione normale alla distribuzione di Poisson

Se Y ha distribuzione di Poisson con media n, allora

Y = i = 1, ..., n Xi

dove X1, X2, ..., Xk sono indipendenti e hanno ciascuno distribuzione di Poisson a media1. Segue dal teorema limite centrale che, se µ è grande (e non necessariamente intero), ladistribuzione di Poisson a parametro µ può essere approssimata con una normale a mediaµ e varianza µ.

25. Supponi che Y abbia distribuzione di Poisson con media 20. Troval'approssimazione normale a

P(16 Y 13)

Laboratorio virtuale > Campioni casuali > 1 2 3 4 [5] 6 7 8 9Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Teorema limite centrale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample5.html (6 di 6) [22/11/2001 17.51.31]

Page 288: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Prove Bernoulliane > 1 2 3 [4] 5 6 7

4. La distribuzione geometrica

Supponiamo ancora che il nostro esperimento casuale consista nell'esguire delle proveBernoulliane I1, I2, ... con parametro p appartenente a (0, 1]. In questo paragrafostudieremo la variabile casuale Y che indica il numero di prova del primo successo.Ricorda che Xn, numero di successi nelle prime n prove, ha distribuzione binomiale conparametri n e p.

La funzione di densità

1. Prova che Y = n se e solo se I1 = 0, ..., In - 1 = 0, In = 1.

2. Usa il risultato dell'esercizio 1 e l'indipendenza per mostrare che

P(Y = n) = p(1 - p)n - 1 per n = 1, 2, ...

La distribuzione definita dalla densità dell'esercizio 2 è detta distribuzione geometrica conparametro p.

3. Nell'esperimento binomiale negativo, poni k = 1. Modifica p con la barra ascorrimento e osserva la forma della funzione di densità. Con p = 0.2, esegui unasimulazione aggiornando ogni 10 replicazioni. Osserva la convergenza delle frequenzarelative alla funzione di densità.

4. Prova in maniera diretta che la funzione di densità geometrica è di fatto unafunzione di densità.

5. Si lancia un dado equilibrato finché non esce un uno. Trova la probabilità che ildado debba essere lanciato almeno 5 volte.

Momenti

Gli esercizi seguenti individuano media, varianza e funzione generatrice di probabilitàdella distribuzione geometrica.

6. Prova che E(Y) = 1 / p.

7. Mostra che var(Y) = (1 - p) / p2.

8. Mostra che E(tY) = pt / [1 - (1 - p)t] per |t| < 1 / (1 - p).

9. Nell'esperimento binomiale negativo, poni k = 1. Modifica p con la barra ascorrimento e osserva posizione e forma della barra media/deviazione standard. Con p =0.4, esegui una simulazione aggiornando ogni 10 replicazioni. Osserva la convergenza di

La distribuzione geometrica

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli4.html (1 di 4) [22/11/2001 17.51.37]

Page 289: Laboratorio virtuale di probabilità e statistica

media e deviazione standard campionarie ai loro valori teorici.

10. Un certo tipo di missile ha probabilità di fallimento 0.02. Trova media edeviazione standard del numero di lanci prima del primo fallimento.

Rapporto con la distribuzione uniforme

11. Mostra che la distribuzione condizionata di Y dato Xn = 1 è uniforme su {1, 2, ...,n}. Nota che la distribuzione non dipende da p. Interpreta i risultati in sensoprobabilistico.

12. Uno studente fa un test a crocette con dieci domande, ciascuna con 4 opzioni. Lostudente tira a indovinare e azzecca una domanda. Trova la probabilità che si tratti di unadelle prime 4 domande.

L'assenza di memoria

I seguenti problemi analizzano una caratteristica molto importante della distribuzionegeometrica.

13. Supponi che Z sia una variabile casuale a valori interi positivi. Prova che Z hadistribuzione geometrica con parametro p se e solo se

P(Z > n) = (1 - p)n for n = 0, 1, 2, ...

14. Se Z ha distribuzione geometrica, prova che Z soddisfa la proprietà di assenza dimemoria: per n e m interi positivi,

P(Z > n + m | Z > m) = P(Z > n)

15. Al contrario, mostra che, se Z è una variabile casuale a valori interi positivi chesoddisfa la proprietà di assenza di memoria, allora Z ha distribuzione geometrica.

16. Prova che Z ha la proprietà di assenza di memoria se e solo se la distribuzionecondizionata di Z - m dato Z > m ha la stessa distribuzione di Z.

17. Nell'esperimento binomiale negativo, poni k = 1 e p = 0.3. Simula 1000replicazioni, aggiornando ogni 100. Calcola le frequenze relative appropriate ed esaminaempiricamente la proprietà di assenza di memoria.

P(Y > 5 | Y > 2) = P(Y > 3)

La proprietà di assenza di memoria ha molte implicazioni rilevanti sui giochi d'azzardo

18. Ricorda che la roulette americana ha 38 caselle: 18 rosse, 18 nere e 2 verdi.Supponi di osservare rosso su 10 giri consecutivi. Trova la distribuzione condizionata delnumero di giri necessari per ottenere il nero.

Il problema di Pietroburgo

La distribuzione geometrica

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli4.html (2 di 4) [22/11/2001 17.51.37]

Page 290: Laboratorio virtuale di probabilità e statistica

Analizziamo ora un'altra situazione di gioco d'azzardo, detta problema di Pietroburgo, cheporta a risultati noti e sorprendenti. Supponiamo di puntare su una sequenza di proveBernoulliane con parametro di successo p > 0. Possiamo puntare una somma qualsiasi didenaro alla pari: se la prova ha successo, riceviamo la somma, altrimenti la perdiamo.Utilizzeremo la seguente strategia, nota come strategia di martingala:

Puntiamo c unità di moneta sulla prima prova.1.

Se perdiamo, raddoppiamo la puntata al giro successivo.2.

Ci fermiamo quando vinciamo.3.

19. Sia V la vincita netta al momento dell'arresto. Mostra che V = c.

Quindi V non è casuale ed è indipendente da p > 0! Poiché c è una costante arbitraria,sembrerebbe che abbiamo trovato una strategia ideale. Proviamo però a vedere qual è laquantità di denaro W necessaria per seguire la strategia.

20. Prova che W = c(2Y - 1).

21. Usa il risultato dell'esercizio precedente per mostrare che

E(W) = c / (2p - 1) if p > 1 / 21.

E(W) = se p 1 / 2.2.

Quindi la strategia non è fattibile se le probabilità sono sfavorevoli o anche bilanciate.

22. Calcola esplicitamente E(W) se c = 100 e p = 0.55.

23. Nell'esperimento binomiale negativa, poni k = 1. Per ciascuno dei seguenti valoridi p, simula 100 replicazioni, aggiornando ogni volta. Per ogni replicazione, calcola W(con c = 1). Trova il valore medio di W sulle 100 prove:

p = 0.21.

p = 0.52.

p = 0.8.3.

Per ulteriori approfondimenti sulle strategie di gioco vedi il capitolo su rosso e nero.

Il lancio della moneta alternativo

Una moneta ha probabilità di testa p appartenente a (0, 1]. Ci sono n giocatori che, aturno, lanciano la moneta in senso circolare: prima il giocatore 1, poi il 2, ... infine ilgiocatore n e poi di nuovo il giocatore 1 e così via. Il primo giocatore che fa testa vince ilgioco.

Sia Y il numero del primo lancio che risulta testa. Ovviamente Y ha distribuzionegeometrica con parametro p. Sia poi W il vincitore del gioco; W assume i valori 1, 2, ...,n. Possiamo calcolare la funzione di densità di probabilità di W in due diversi modi

24. Prova che per i = 1, 2, ..., n,

La distribuzione geometrica

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli4.html (3 di 4) [22/11/2001 17.51.37]

Page 291: Laboratorio virtuale di probabilità e statistica

W = i se e solo se Y = i + kn per qualche k = 0, 1, 2, ...

Ovvero, utilizzando l'aritmetica modulare, W = (Y - 1) (mod n) + 1.

25. Usa il risultato dell'esercizio precedente e la distribuzione geometrica per mostrareche

P(W = i) = p(1 - p)i - 1 / [1 - (1 - p)n] per i = 1, 2, ..., n

26. Spiega come mai P(W = i) = (1 - p)i - 1P(W = 1). Usa questo risultato per ricavarenuovamente la funzione di densità di probabilità dell'esercizio precedente.

27. Calcola esplicitamente la funzione di densità di probabilità di W quando la monetaè bilanciata e (p = 1/2) in ciascuno dei casi seguenti

n = 2.1.

n = 3.2.

n generico.3.

Nota dall'esercizio 25 che W stesso ha distribuzione geometrica troncata.

28. Mostra che la distribuzione di W è uguale alla distribuzione condizionata di Y dato

Y n:

P(W = i) = P(Y = i | Y n ) per i = 1, 2, ..., n.

29. Mostra che, per dato p appartenente a (0, 1], la distribuzione di W converge alla

distribuzione geometrica con parametro p as n .

30. Dimostra che, per dato n, la distribuzione di W converge alla distribuzione

uniforme su {1, 2, ..., n} per p 0.

31. Cosa succede al gioco quando p = 0? Confronta col limite dell'esercizioprecedente.

Laboratorio virtuale > Prove Bernoulliane > 1 2 3 [4] 5 6 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione geometrica

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli4.html (4 di 4) [22/11/2001 17.51.37]

Page 292: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Il processo di Poisson > 1 2 3 4 5 [6] 7 8

6. Analogie con le prove Bernoulliane

Distribuzioni analoghe

In un certo senso il processo di Poisson è l'analogo, in tempo continuo, del processo diprove Bernoulliane. Per vederlo, supponiamo di pensare a ciascun successo del processodi prove Bernoulliane come a un punto casuale in tempo discreto. Quindi il processo diprove Bernoulliane, come il processo di Poisson, ha proprietà rigenerative: per ciascundato istante e per ciascun tempo di arrivo, il processo "ricomincia" indipendentemente dalsuo passato. Tenendo a mente questa analogia, possiamo trovare delle connessioni traquesti due tipi di distribuzione.

I tempi interarrivo sono indipendenti e hanno distribuzione geometrica nel processodi prove Bernoulliane; sono indipendenti e hanno distribuzione esponenziale nelprocesso di Poisson.

I tempi di arrivo hanno distribuzione binomiale negativa nel processo di proveBernoulliane; hanno distribuzione gamma nel processo di Poisson.

Il numero di arrivi in un intervallo ha distribuzione binomiale nel processo di proveBernoulliane; ha distribuzione di Poisson nel processo di Poisson.

1. Esegui l'esperimento binomiale con n = 50 e p = 0.1. Osserva i punti casuali intempo discreto.

2. Esegui l'esperimento di Poisson con t = 5 e r = 1. Osserva i punti casuali in tempocontinuo e confronta il loro andamento con quello dell'esercizio 1.

Convergenza della distribuzione binomiale a quella di Poisson

Studiamo ora più in dettaglio la connessione tra la binomiale e la distribuzione di Poisson.Consideriamo la distribuzione binomiale in cui il parametro di successo p dipende dalnumero di prove n. Supponiamo inoltre che

npn c per n .

3. Mostra che questa assunzione implica che

pn 0 as n .

per cui la probabilità di successo è bassa quanto il numero delle prove è elevato.

Mostreremo ora che questa distribuzione binomiale converge, al crecsere di n, alladistribuzione di Poisson con parametro c.

4. Per un dato intero non negativo k, mostra che

Analogie con le prove Bernoulliane

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson6.html (1 di 4) [22/11/2001 17.51.43]

Page 293: Laboratorio virtuale di probabilità e statistica

C(n, k) pnk (1 - pn)n - k = (1 / k!)npn(n - 1)pn ··· (n - k + 1)pn (1 - npn / n)n - k.

Il membro di sinistra dell'equazione dell'esercizio 4 è la funzione di densità di probabilitàcalcolata in k.

5. Mostra che, per dato j,

(n - j)pn c per n .

6. Usa un teorema dell'analisi per mostrare che, per dato k,

(1 - npn / n)n-k e-c per n .

7. Usa i risultati degli esercizi 4-6 per mostrare che

C(n, k) pnk (1 - pn)n - k e-c ck / k! per n .

8. Nell'esperimento binomiale, poni n = 30 e p = 0.1 e simula 1000 replicazioniaggiornando ogni 10. Calcola e confronta i seguenti:

P(X30 4)1.

La frequenza relativa dell'evento {X30 4}.2.

L'approssimazione di Poisson a P(X30 4)3.

9. Nel contesto di questo paragrafo, mostra che media e varianza della distribuzionebinomiale convergono rispettivamente a media e varianza della distribuzione di Poisson alcrescere di n.

10. Supponi di avere 100 chip di memoria, ciascuno dei quali può essere difettoso conprobabilità 0.05, indipendentemente dagli altri. Approssima la probabilità che vi sianoalmeno 3 chip difettosi.

Confronto di approssimazioni

Ricordiamo che la distribuzione binomiale può essere approssimata dalla distribuzionenormale, in virtù del teorema limite centrale, ma può essere approssimata anche dalladistribuzione di Poisson, come abbiamo appena visto. L'approssimazione alla normalefunziona bene quando np e n(1 - p) sono grandi; la regola generale è che devono esserealmeno maggiori di 5. L'approssimazione alla Poisson funziona bene quando n è grande ep piccolo, cosicché np è di dimensioni moderate.

11. Nell'esperimento temporale binomiale, poni n = 40 e p = 0.1 e simula 1000replicazioni aggiornando ogni 10. Calcola e confronta i seguenti:

P(X40 > 5).1.

La frequenza relativa dell'evento {X40 > 5}.2.

Analogie con le prove Bernoulliane

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson6.html (2 di 4) [22/11/2001 17.51.43]

Page 294: Laboratorio virtuale di probabilità e statistica

L'approssimazione di Poisson a P(X40 > 5).3.

L'approssimazione normale a P(X40 > 5).4.

12. Nell'esperimento temporale binomiale, poni n = 100 e p = 0.1 e simula 1000replicazioni aggiornando ogni 10. Calcola e confronta i seguenti:

P(8 < X100 < 15).1.

La frequenza relativa dell'evento {8 < X100 < 15}.2.

L'approssimazione di Poisson a P(8 < X100 < 15).3.

L'approssimazione normale a P(8 < X100 < 15).4.

13. Un file di testo contiene 1000 parole. Assumiamo che ogni parola,indipendentemente dalle altre, sia scritta male con probabilità p.

Se p = 0.015, approssima la probabilità che il file contenga almeno 20 parole scrittemale.

1.

Se p = 0.001, approssima la probabilità che il file contenga almeno 3 parole scrittemale.

2.

Definizione alternativa del processo di Poisson

L'analogia con le prove Bernoulliane porta a un'ulteriore modo per introdurre il processodi Poisson. Supponiamo di avere un processo che genera punti casuali nel tempo. Per A

[0, ), sia m(A) la lunghezza di A e sia N(A) il numero di punti casuali in A.Supponiamo che, per qualche r > 0, valgano i seguenti assiomi:

Se m(A) = m(B), allora N(A) e N(B) sono distribuiti ugualmente (proprietà distazionarietà).

1.

Se A1, A2, ..., An sono regioni mutualmente disgiunte di R2 allora N(A1), N(A2), ...,N(An) sono indipendenti (proprietà di indipendenza).

2.

P[N(A) = 1] / m(A) r per m(A) 0 (proprietà di velocità).3.

P[N(A) > 1] / m(A) 0 per m(A) 0 (proprietà di sparsità).4.

Gli esercizi seguenti mostreranno che questi assiomi definiscono un processo di Poisson.In primo luogo, sia

Nt = N(0, t], Pn(t) = P(Nt = n) per t 0, n = 0, 1, 2, ...

14. Usa gli assiomi per mostrare che P0 soddisfa la seguente equazione differenzialecon condizione iniziale:

P0'(t) = rP0(t)1.

P0(0) = 1.2.

15. Risolvi il problema ai valori iniziali dell'esercizio 14 per mostrare che

Analogie con le prove Bernoulliane

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson6.html (3 di 4) [22/11/2001 17.51.43]

Page 295: Laboratorio virtuale di probabilità e statistica

P9(t) = e-rt.

16. Usa gli assiomi per mostrare che Pn soddisfa la seguente equazione differenzialecon condizione iniziale per n = 1, 2, ...:

Pn'(t) = -rPn(t) + rPn - 7(t)1.

Pn(0) = 0.2.

14. Risolvi l'equazione differenziale dell'esercizio 16 per via ricorsiva e mostra che

Pn(t) = e-rt (rt)n / n! per n = 1, 2, ...

Segue dall'esercizio 18 che Nt ha distribuzione di Poisson con parametro rt. Sia ora Tk ilk-esimo tempo di arrivo per d = 1, 9, .... Come in precedenza, dobbiamo avere

Nt k se e solo se Tk t.

18. Prova che Tk ha distribuzione gamma con parametri k e r.

Infine, sia Xk = Tk - Tk - 1 il k-esimo tempo interarrivo, per k = 1, 2, ...

19. Prova che i tempi interarrivo Xk, k = 1, 2, ... sono indipendenti e distribuitiesponenzialmente con parametro r.

Laboratorio virtuale > Il processo di Poisson > 1 2 3 4 5 [6] 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Analogie con le prove Bernoulliane

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson6.html (4 di 4) [22/11/2001 17.51.43]

Page 296: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Campioni casuali > [1] 2 3 4 5 6 7 8 9

1. Introduzione

Il modello statistico di base

Come al solito, il punto da cui muoveremo è un esperimento aleatorio su un certo spaziocampionario e con misura di probabilità P. Nel modello statistico di base, abbiamo unavariabile casuale osservabile X (che definiamo variabile delle osservazioni) che assumevalori in un insieme S. In generale, X può avere una struttura complicata. Per esempio, sel'esperimento consiste nell'estrarre soggetti da una popolazione e registrare diversi tipi didati, allora

X = (X1, X2, ..., Xn)

dove Xi è il vettore che contiene le misurazioni dell'i-esimo oggetto. Presentiamo quisotto alcuni esempi.

Nei dati M&M, sono analizzati 30 pacchetti di M&Ms. In questa ricerca, lavariabile Xi registra il conteggio dei colori delle pastiglie (ovvero rosso, verde, blu,arancio, giallo e marrone) e il peso dell'i-esimo pacchetto.

1.

Nei dati di Fisher sugli iris, si studiano 150 iris. Xi registra il tipo, la lunghezza e lalarghezza dei petali, e la lunghezza e la larghezza dei sepali per l'i-esimo fiore.

2.

Per i dati sulla cicala, sono state catturate 104 cicale. In questo caso, Xi regsitra ilpeso corporeo, la lunghezza, il sesso, la specie e lunghezza e larghezza delle ali perl'i-esima cicala.

3.

D'altro canto, il senso ultimo dell'astrazione matematica è l'abilità di isolare lecaratteristiche non rilevanti per trattare una struttura complessa come un oggetto singolo.Pertanto, anche se X può essere anche un vettore di vettori, quello che è fondamentale èche sia la variabile casuale di un esperimento.

La statistica si divide in due ampi rami. Col termine statistica descrittiva ci si riferisce ametodi per sommarizzare e presentare i dati osservati x. La statistica inferenziale invece sioccupa di metodi per estrarre dai dati osservati x informazioni sulla distribuzione di X.Pertanto, in un certo senso, la statistica inferenziale è l'altra faccia del calcolo delleprobabilità. In quest'ultimo si cerca di prevedere il valore di X assumendo nota la suadistribuzione. In statistica, al contrario, si osserva il valore di X e si cerca di inferireinformazioni sulla distribuzione sottostante.

Le tecniche statistiche hanno incontrato un enorme successo e sono largamente utilizzatepraticamente in ogni scienza in cui le variabili di interesse sono quantificabili: scienzenaturali, scienze sociali, giurisprudenza e medicina. D'altra parte, il fatto che la statisticasia una disciplina altamente formalizzata e l'ampio utilizzo di terminologia specificapossono rendere l'argomento ostico per un neofita. In questo paragrafo definiremo alcunidei concetti più importanti.

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample1.html (1 di 3) [22/11/2001 17.51.48]

Page 297: Laboratorio virtuale di probabilità e statistica

Tipi di variabili

Ricorda che una variabile reale è continua se i valori che è suscettibile di assumereformano un intervallo di numeri reali. Per esempio, la varianile peso nei dati M&M e lalunghezza e la larghezza nei dati di Fisher sugli iris sono variabili continue. Al contrario, ivalori che una variabile discreta può assumere costituiscono un insieme numerabile. Peresempio, le variabili di conteggio nei dati M&M , la variabile tipo nei dati di fisher sugliiris e il numero e il seme in un'estrazione di carte sono variabili discrete Le variabilicontinue identificano variabili che, almeno in teoria, possono essere misurate con infinitaprecisione. In pratica, ovviamente, gli apparecchi di misura hanno precisione finita, percui i dati raccolti sono necessariamente discreti, ovvero esiste solo un insieme di valorifinito (ma anche molto grande) di valori possibili che possono essere misurati.

Una variabile reale è contraddistinta altresì dal suo livello di misura, che determina leoperazioni matematiche che hanno senso su quella variabile. Le variabili qualitativecodificano diverse tipologie di oggetti e pertanto nessuna operazione matematica hasenso, anche se si utilizzano numeri per la codifica. Tali variabili si dicono misurate suscala nominale. Per esempio, la variabile tipo nei dati di Fisher sugli iris è qualitativa.Una variabile per cui ha senso solo un confronto di ordine si dice misurata su scalaordinale; le differenze non hanno senso neppure la codifca è numerica. Per esempio, inmolti giochi di carte i semi sono ordinati, per cui la variabile seme è misurata su scalaordinale. Una variabile quantitativa per cui hanno senso le differenza ma non i rapporti sidice misurata su scala intervallare. Ciò equivale a dire che una variabile ha valore di zerorelativo. Esempi classici sono la temperatura (in gradi Celsius o Fahrenheit) o il tempo.Infine, una variabile quantitativa per la quale hanno senso anche i rapporti si dice misuratasu scala a rapporti. Una variabile misurata su questa scala ha un valore di zero assoluto.Le variabili di conteggio e il peso nei dati M&M e le variabili lunghezza e larghezza neidati di Fisher sugli iris possono essere presi ad esempio.

Parametri e statistica

Il termine parametro indica una variabile non casuale di un certo modello che, una voltascelta, resta costante. Quasi tutti i modelli probabilistici sono di fatto famiglieparametriche di modelli, ovvero dipendono da uno o più parametri che possono esseremodificati per adattare il modello al processo che si intende descrivere. Detto in terminipiù formali, un parametro è una caratteristica della distribuzione della variabileosservabile X. Come al solito, esamineremo le cose da un punto di vista generale eutilizzeremo parametri potenzialmente vettoriali.

1. Identifica i parametri in ognuno dei casi seguenti:

Esperimento della moneta di Buffon●

Esperimento dell'ago di Buffon●

Esperimento binomiale●

Una statistica è una variabile casuale che è funzione osservabile dell'esito di unesperimento:

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample1.html (2 di 3) [22/11/2001 17.51.48]

Page 298: Laboratorio virtuale di probabilità e statistica

W = W(X).

Il termine osservabile significa che la funzione non deve contenere parametri ignoti,ovvero che, alla fine dell'esperimento si deve essere in grado di calcolare il valore dellastatistica sulla base dell'esito. Osserva che una statistica è una variabile casuale e pertanto,come ogni vettore casuale, ha una distribuzione di probabilità. Quello che osserviamoall'atto pratico è una realizzazione di questa variabile casuale. Esattamente come X, Wpuò avere struttura complessa; in genere, W è un vettore. Nota che anche X è unastatistica, ovvero la variabile originale; tutte le altre statistiche si ricavano da X.

Le statistiche U e V si dicono equivalenti se esiste una funzione biunivoca r dal dominiodi U a quello di V tale che

V = r(U).

Statistiche equivalenti danno informazioni equivalenti in termini di inferenza.

2. Dimostra che le statistiche U e V sono equivalenti se e solo se valgono le seguenticondizioni:

U(x) = U(y) se e solo se V(x) = V(y) per x, y appartenente a S.

3. Dimostra che l'equivalenza è in realtà una relazione di equivalenza sulla collezionedi statistiche:

W è equivalente a W per ogni statistica W (proprietà riflessiva).1.

Se U è equivalente a V allora V è equivalente a U (proprietà simmetrica).2.

Se U è equivalente a V e V è equivalente a W allora U è equivalente a W (proprietàtransitiva).

3.

Campioni casuali

Il caso più frequente e più importante di questo modello statistico si ha quando lavariabile delle osservazioni ha forma

X = (X1, X2, ..., Xn).

Dove X1, X2, ..., Xn sono indipendenti e identicamente distribuite. Di nuovo, nel modellodi campionamento standard, Xi è un vettore di misure per l'i-esimo oggetto del campionee pertanto possiamo vedere X1, ..., Xn come repliche indipendenti di un vettore di misuresottostante. In questo caso, si dice che (X1, X2, ..., Xn) è un campione casuale didimensione n dalla distribuzione comune.

L'obiettivo di questo capitolo è quello di studiare i campioni casuali, la statisticadescrittiva e alcune delle statistiche più importanti.

Laboratorio virtuale > Campioni casuali > [1] 2 3 4 5 6 7 8 9Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample1.html (3 di 3) [22/11/2001 17.51.48]

Page 299: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Campioni casuali > 1 [2] 3 4 5 6 7 8 9

2. Media campionaria e legge dei grandi numeri

La media campionaria

Come al solito, il punto da cui muoveremo è un esperimento aleatorio su un certo spaziocampionario e con misura di probabilità P. Supponiamo che X sia una variabile casuale avalori reali. Indicheremo la media e la deviazione standard di X con, rispettivamente, µ ed.

Supponiamo ora di eseguire una serie di replicazioni indipendenti di questo esperimento.Ciò definisce un nuovo esperimento costituito da una sequenza di variabili casualiindipendenti, ciascuna distribuita come X:

X1, X2, ...,

Ricordiamo che, in termini statistici, (X1, X2, ..., Xn) è un campione casuale didimensione n proveniente dalla distribuzione X, qualunque sia n. La media campionaria èsemplicemente la media delle variabili del campione:

Mn = (X1 + X2 + ··· + Xn) / n.

La media campionaria è una funzione a valori reali di un campione casuale, ed è pertantouna statistica. Come ogni altra statistica, la media campionaria è anch'essa una variabilecasuale con la sua distribuzione, il suo valore atteso e la sua varianza. In molti casi lamedia della distribuzione è ignota, e si usa la media campionaria come stimatore dellamedia della distribuzione.

1. Nell'applet dadi, scegli la variabile casuale media. Per ogni possibile distribuzionedegli esiti, inizia con n = 1 dadi e incrementa di uno fino ad arrivare a n = 20 dadi.Osserva la forma e la posizione della funzione di densità ad ogni passo. Con 20 dadi,simula 1000 replicazioni aggiornando ogni 10. Osserva la convergenza della funzione didensità empirica a quella teorica.

Proprietà della media campionaria

2. Dimostra che E(Mn) = µ.

L'esercizio 1 dimostra che Mn è uno stimatore corretto per µ. Pertanto, quando la mediacampionaria è utilizzata come stimatore della media della distribuzione, la varianza dellamedia campionaria è l'errore quadratico medio.

3. Dimostrare che var(Mn) = d2 / n.

Dall'esercizio 3 si osserva che la varianza della media campionaria è funzione crescente

Media campionaria e legge dei grandi numeri

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample2.html (1 di 4) [22/11/2001 17.51.54]

Page 300: Laboratorio virtuale di probabilità e statistica

rispetto alla varianza della distribuzione e decrescente rispetto alla dimensione delcampione. Entrambe queste asserzioni sono intuitivamente sensate se vediamo la mediacampionaria come uno stimatore della media della distribuzione.

4. Nell'applet dadi, seleziona la variabile casuale media. Per ogni possibiledistribuzione degli esiti, inizia con n = 1 dadi e incrementa di uno fino ad arrivare a n = 20dadi. Osserva che il valore atteso della media campionaria resta costante, mentre ladevizione standard decresce (come sappiamo, con velocità inversa alla radice quadratadella dimensione del campione). Simula 1000 replicazioni, aggiornando ogni 10 e osservala convergenza dei momenti empirici a quelli teorici.

5. Calcola, sui dati di Fisher sugli iris, la media campionaria della variabile lunghezzadei petali in ciascuno dei seguenti casi e confronta i risultati.

Tutte le varietà1.

Solo la setosa2.

Solo la versicolor3.

Solo la verginica4.

La legge debole dei grandi numeri

Dall'esercizio 3 si nota che var(Mn) 0 as n . Ciò indica che Mn µ per n in media quadratica.

6. Usa la disuguaglianza di Chebyshev per dimostrare che

P[|Mn - µ| > r] 0 per n per ogni r > 0.

Questo risultato è noto come legge debole dei grandi numeri, e afferma che la mediacampionaria converge in probabilità alla media della distribuzione. Ricorda che laconvergenza in media quadrata implica la convergenza in probabilità.

La legge forte dei grandi numeri

La legge forte dei grandi numeri afferma che la media campionaria Mn converge quasisicuramente alla media della distribuzione µ:

P(Mn µ as n ) = 1.

Come il nome stesso suggerisce, questo risultato è molto più forte di quello presentatopoc'anzi. Ciò può essere provato in maniera piuttosto semplice se si assume che ilmomento centrato di ordine 4 è finito:

b4 = E[(X - µ)4] < .

Esistono comunque dimostrazioni migliori che non necessitano di questa assunzione (vediad esempio il libro Probability and Measure di Patrick Billingsley).

Media campionaria e legge dei grandi numeri

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample2.html (2 di 4) [22/11/2001 17.51.54]

Page 301: Laboratorio virtuale di probabilità e statistica

7. Sia Yi = Xi - µ e sia Wn = Y1 + Y2 + ··· + Yn. Mostra che

Y1, Y2, ..., Yn sono indipendenti e identicamente distribuite.1.

E(Yi) = 0.2.

E(Yi2) = d2.3.

E(Yi4) = b4.4.

Mn µ per n se e solo se Wn / n 0 as n .5.

Attraverso l'esercizio 7, vogliamo dimostrare che Wn / n 0 per n conprobabilità 1.

8. Mostra che Wn / n non converge a 0 se e solo se esiste un numero razionale r > 0tale che |Wn / n| > r per infiniti n.

Dobbiamo pertanto mostrare che l'evento descritto nell'esercizio 8 ha probabilità 0.

9. Dimostra che Wn4 è la somma di YiYjYkYl per ogni i, j, k, l appartenenti a {1, 2, ...,

n}.

10. Mostrare che

E(YiYjYkYl) = 0 se uno degli indici differisce dagli altri tre.1.

E(Yi2Yj

2) = d4 se i e j sono distinti, ed esistono 3n(n - 1) di questi termini E(Wn4).2.

E(Yi4) = b4 ed esistono n di questi termini E(Wn

4).3.

11. Usa i risultati dell'esercizio 10 per dimostrare che E(Sn4) Cn2 per qualche

costante C (indipendente da n).

12. Usa la disuguaglianza di Markov e il risultato dell'esercizio 11 per dimostrare che,per r > 0,

P(|Wn / n| > r) = P(Wn4 > r4n4) C / (r4n2).

13. Usa il primo lemma di Borel-Cantelli per dimostrare che

P(|Wn / n| > r per infiniti n) = 0.

14. Dimostra infine che

P(esite un razionale r > 0 tale che |Wn / n| > r per infiniti n) = 0.

Simulazioni

15. Nell'applet dadi, seleziona la variabile casuale media select the average randomvariable. Per ogni possibile distribuzione degli esiti, inizia con n = 1 dadi e incrementa di

Media campionaria e legge dei grandi numeri

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample2.html (3 di 4) [22/11/2001 17.51.54]

Page 302: Laboratorio virtuale di probabilità e statistica

uno fino ad arrivare a n = 20 dadi. Osserva come la distribuzione della media campionariaaumenta la sua somiglianza con quella di una funzione di densità. Simula 1000replicazioni, aggiornando ogni 10 e osserva la convergenza della densità empirica dellamedia campionaria alla densità teorica.

Molte delle applets di questo progetto simulano esperimenti con un'unica variabilealeatoria di interesse. Quando si fa una simulazione, si generano replicazioni indipendentidell'esperimento. Nella maggior parte dei casi, l'applet riporta la media della distribuzionenumericamente in una tabella e graficamente come centro della barra orizzontale blu sottoil grafico. Ugualmente, la media campionaria è riportata numericamente nella tabella egraficamente come centro della barra rossa orizzontale sotto il grafico.

16. Nell'esperimento binomiale della moneta, la variabile casuale è il numero di teste.Simula 1000 replicazioni aggiornando ogni 10 e osserva la convergenza della mediacampionaria al valore atteso della distribuzione.

17. Nell'esperimento della concordanza, la variabile casuale è il numero di successi.Simula 1000 replicazioni aggiornando ogni 10 e osserva la convergenza della mediacampionaria al valore atteso della distribuzione.

18. Replica l'esperimento esponenziale 1000 volte aggiornando ogni 10. Osserva laconvergenza della media campionaria al valore atteso della distribuzione.

Laboratorio virtuale > Campioni casuali > 1 [2] 3 4 5 6 7 8 9Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Media campionaria e legge dei grandi numeri

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample2.html (4 di 4) [22/11/2001 17.51.54]

Page 303: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli di campionamento finito > 1 2 3 4 5 6 7 [8] 9 10

8. Numero di valori campionari distinti

Variabili semplici

Supponiamo che il nostro esperimento casuale consista nell'estrarre un campione casualedi dimensione n, con reinserimento, dalla popolazione D = {1, 2, ..., N}:

X = (X1, X2, ..., Xn).

Ricordiamo che l'assunzione di base è che X sia distribuita uniformemente sullo spaziocampionario

S = {1, 2, ..., N}n.

In questo paragrafo ci interessiamo al numero di valori della popolazione assenti dalcampione e al numero di valori (distinti) nel campione. Spesso interpreteremol'esperimento come una distribuzione di n palline in N caselle; Xi è il numero della cellain cui si trova la pallina i. In questo modello, siamo interessati al numero di celle vuote edi celle occupate.

Per i appartenente a D, sia Yi il numero di volte in cui i si presenta nel campione:

Yi = #{j {1, 2, ..., n}: Xj = i}.

1. Prova che Y = (Y1, Y2, ..., YN) ha distribuzione multinomiale: per interi nonnegativik1, ..., kN con k1 + k2 + ··· + kN = n,

P(Y1 = k1, Y2 = k2, ..., YN = kN) = C(n; k1, k2, ..., kN) / Nn

Definiamo ora la variabile casuale di interesse principale: il numero di valori dellapopolazione assenti dal campione:

UN, n = #{j {1, 2, ..., N}: Yj = 0},

e il numero di valori (distinti) della popolazione che si presentano nel campione:

VN, n = #{j {1, 2, ..., N}: Yj > 0}.

Chiaramente si deve avere

UN, n + VN, n = N,

così, avendo la distribuzione di probabilità e i momenti di una delle variabili, possiamotrovarli facilmente per l'altra. Notiamo inoltre che l'evento compleanno, in cui vi è almenouna duplicazione nel campione, può essere scritto come

Numero di valori campionari distinti

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn8.html (1 di 5) [22/11/2001 17.52.01]

Page 304: Laboratorio virtuale di probabilità e statistica

{VN, n < n} = {UN, n > N - n}.

2. Nell'esperimento del compleanno generalizzato, poni N = 100. Modifica n e osservala forma del grafico della densità di V e la sua posizione nel campo di variazione. Con n =30, simula l'esperimento passo per passo un paio di volte e osserva gli esiti. Poi simula1000 replicazioni, aggiornando ogni 10, e osserva la convergenza delle frequenze relativealla distribuzione "vera".

La funzione di densità

Per j appartenente a D, considera l'evento in cui j non si presenta nel campione:

Aj = {Yj = 0}.

Sia K sottinsieme di D con #(K) = k. Usando la regola del prodotto del calcolocombinatorio, è semplice contare il numero di campioni che non contengono nessunelemento di K:

3. Mostra che

#[ j in K Aj] = (N - k)n.

Ora si può usare la regola di inclusione-esclusione del calcolo combinatorio per contare ilnumero di campioni privi di almeno un valore della popolazione:

4. Prova che

#[ j = 1, ..., N Aj] = k = 1, ..., N (-1)k - 1 C(N, k) (N - k)n.

Una volta ottenuto ciò, è semplice contare il numero di campioni che contengono tutti ivalori della popolazione:

5. Prova che

#[ j = 1, ..., N Ajc] = k = 1, ..., N (-1)k C(N, k) (N - k)n.

Ora possiamo usare una procedura a due passi per generare tutti i campioni privi diesattamente j valori: in primo luogo selezioniamo i j valori da escludere; poi selezioniamoun campione di dimensione n dai restanti valori della popolazione di modo che non ne siaescluso nessuno. Possiamo quindi usa il principio del prodotto per contare il numero dicampioni privi dei j valori.

6. Prova che

#{UN,n = j} = C(N, j) k = 0, ..., N - j (-1)k C(N - j, k) (N - j - k)n.

Numero di valori campionari distinti

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn8.html (2 di 5) [22/11/2001 17.52.01]

Page 305: Laboratorio virtuale di probabilità e statistica

Infine, poiché la distribuzione di probabilità di X sullo spazio campionario S è uniforme,possiamo trovare la funzione di densità del numero di valori esclusi:

7. Prova che per j = max{N - n, 0}, ..., N - 1,

P(UN,n = j) = C(N, j) k = 0, ..., N - j (-1)k C(N - j, k) [1 - (j + k) / N]n.

Inoltre possiamo ricavare facilmente la funzione di densità del numero di valori distintinel campione:

8. Mostra che per j = 1, 2, ..., min{N, n},

P(VN,n = j) = C(N, j) k = 0, ..., j (-1)k C(j, k) [(j - k) / N]n.

9. Supponi di scegliere a caso 20 persone. Trova la probabilità che almeno 18settimane di nascita siano rappresentate.

10. Nell'esperimento del compleanno generalizzato, poni N = 52. Modifica n e osservaforma e posizione della funzione di densità. Con n = 20, simula 1000 replicazioniaggiornando ogni 10 e osserva la convergenza delle frequenze raltive alla funzione didensità.

11. Supponi di lanciare 10 dadi equilibrati. Trova la probabilità di ottenere 4 o menopunteggi distinti.

12. Nell'esperimento del compleanno generalizzato, poni N = 6. Modifica n e osservaforma e posizione della funzione di densità. Con n = 10, simula 1000 replicazioniaggiornando ogni 10 e osserva la convergenza delle frequenze raltive alla funzione didensità.

Relazione ricorsiva

La distribuzione del numero di valori mancanti può essere ricavata anche con una provaricorsiva.

13. Sia aN, n(j) = P(UN, n = j) per j = max{N - n, 0}, ..., N - 1. Usa una dimostrazioneprobabilistica per provare che

aN, 1(N - 1) = 1.1.

aN, n+1(j) = [(N - j) / N]aN, n(j) + [(j + 1) / N]aN, n(j + 1).2.

14. Supponi di scegliere a caso 20 persone. Trova la probabilità che almeno 3 mesi dinascita non siano rappresentati.

15. Nell'esperimento del compleanno generalizzato, poni N = 12. Modifica n e osservaforma e posizione della funzione di densità. Con n = 20, simula 1000 replicazioni

Numero di valori campionari distinti

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn8.html (3 di 5) [22/11/2001 17.52.01]

Page 306: Laboratorio virtuale di probabilità e statistica

aggiornando ogni 10 e osserva la convergenza delle frequenze raltive alla funzione didensità.

16. Un fast food distribuisce 10 tipi di pupazzi con il menu per bambini. Una famigliaacquista 15 menu: trova la probabilità che manchino almeno 3 tipi di pupazzo.

17. Nell'esperimento del compleanno generalizzato, poni N = 10. Modifica n e osservaforma e posizione della funzione di densità. Con n = 15, simula 1000 replicazioniaggiornando ogni 10 e osserva la convergenza delle frequenze raltive alla funzione didensità.

Momenti

Vediamo ora come calcolare medie e varianze. Il numero di valori mancanti e il numerodi valori distinti sono variabili di conteggio e quindi possono essere scritte come sommadi variabili indicatore. Come abbiamo visto in molti altri modelli, tale rappresentazione èspesso la migliore per il calcolo dei momenti.

Sia Ij = 1 se Aj si verifica (j non appartiene al campione) e Ij = 0 se Aj non si verifica (jappartiene al campione).

Notiamo che il numero di valori assenti dal campione può essere scritto come

UN, n = I1 + I2 + ··· + IN.

18. Prova che

E(Ij) = (1 - 1 / N)n per j = 1, 2, ..., N.1.

E(Ii Ij) = (1 - 2 / N)n per i, j = 1, 2, ..., N con i j.2.

19. Usa il risultato dell'esercizio precedente per mostrare che

E(UN, n) = N(1 - 1 / N)n.1.

E(VN, n) = N[1 - (1 - 1 / N)n].2.

20. Usa il risultato dell'esercizio 18 per mostrare che

var(Ii) = (1 - 1 / N)n - (1 - 1 / N)2n.1.

cov(Ii, Ij) = (1 - 2 / N)n - (1 - 1 / N)2n se i j.2.

19. Usa il risultato dell'esercizio precdente e le proprietà della varianza per mostrareche

var(UN, n) = var(VN, n) = N(N - 1)(1 - 2 / N)n + N(1 - 1 / N)n - N2(1 - 1 /

N)2n.

20. Supponi di scegliere a caso 100 persone. Trova media e deviazione standard delnumero di compleanni distinti.

Numero di valori campionari distinti

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn8.html (4 di 5) [22/11/2001 17.52.01]

Page 307: Laboratorio virtuale di probabilità e statistica

21. Supponi di scegliere a caso 30 persone. Trova media e deviazione standard delnumero di settimane di nascita distinte.

22. Nell'esperimento del compleanno generalizzato, poni N = 52. Modifica n e osservadimensione e posizione della barra media/deviazione standard. Con n = 30, simula 1000replicazioni aggiornando ogni 10 e osserva la convergenza dei momenti empirici ai lorovalori teorici.

23. Supponi di scegliere a caso 20 persone. Trova media e deviazione standard delnumero di mesi di nascita distinti.

24.Nell'esperimento del compleanno generalizzato, poni N = 12. Modifica n e osservadimensione e posizione della barra media/deviazione standard. Con n = 20, simula 1000replicazioni aggiornando ogni 10 e osserva la convergenza dei momenti empirici ai lorovalori teorici.

25. Problema degli studenti bugiardi. Supponi che 3 studenti dello stesso corso saltinoun esame di matematica. Decidono inventare una scusa e raccontano al docente che hannobucato una gomma della macchina. Il docente separa gli studenti e chiede a ciascuno diloro quale fosse la gomma bucata. Gli studenti, che non si aspettavano la domanda,rispondo a caso e indipendentemente l'uno dall'altro.

Trova la funzione di densità di probabilità del numero di risposte distinte.1.

In particolare, trova la probabilità che gli studenti riescano a cavarsela.2.

Trova la media del numero di risposte distinte.3.

Trova la deviazione standard del numero di risposte distinte.4.

26. Problema del cacciatore di anatre. Supponi che ci siano 5 cacciatori di anatre,ciascuno perfetto tiratore. Passa uno stormo di 10 anatre e ogni cacciatore ne punta una espara.

Trova la funzione di densità di probabilità del numero di anatre uccise.1.

Trova la media del numero di anatre uccise.2.

Trova la deviazione standard del numero di anatre uccise.3.

Laboratorio virtuale > Modelli di campionamento finito > 1 2 3 4 5 6 7 [8] 9 10Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Numero di valori campionari distinti

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn8.html (5 di 5) [22/11/2001 17.52.01]

Page 308: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Campioni casuali > 1 2 3 [4] 5 6 7 8 9

4. Varianza campionaria

Il campione casuale

Per iniziare, introduciamo un esperimento aleatorio semplice, definito su un certo spaziocampionario e con misura di probabilità P. Supponiamo che X sia una variabile casuale avalori reali, relativa all'esperimento, con valore atteso µ e deviazione standard d. Inoltre,sia

dk = E[(X - µ)k]

il momento k-esimo intorno alla media. Osserva in particolare che d0 = 1, d1 = 0, d2 = d2.

Ripetiamo indefinitamente l'esperimento semplice per avere un nuovo esperimentocomposito costituito da una sequenza di variabili casuali indipendenti, ciascuna distribuitacome X:

X1, X2, ...

Per ogni n, (X1, X2, ..., Xn) è un campione casuale di dimensione n estratto dalladsitribuzione di X. Ricorda che la media campionaria

Mn = (1 / n) i = 1, ..., n Xi

è una misura naturale del "centro" dei dati, nonché uno stimatore naturale per µ. In questoparagrafo introdurremo statistiche che costituiscono misure naturali della dispersione deidati e stimatore per la varianza d2. Le statistiche di cui parleremo sono differenti aseconda del fatto che µ sia noto oppure no; per questa ragione µ è detto parametro didisturbo relativamente al problema della stima di d2.

Uno stimatore per d2 quando µ è noto

Per iniziare, ci occuperemo del caso in cui µ è noto, anche se questa assunzione èsolitamente irrealistica all'atto pratico. In questo caso, la stima è semplice. Sia

Wn2 = (1 / n) i = 1, ..., n (Xi - µ)2.

1. Prova che Wn2 è la media campionaria di un campione di dimensione n estratto dalla

distribuzione di (X - µ)2.

2. Usa il risultato dell'esercizio 1 per dimostrare che

E[Wn2] = d2.1.

Varianza campionaria

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample4.html (1 di 6) [22/11/2001 17.52.10]

Page 309: Laboratorio virtuale di probabilità e statistica

var[Wn2] = (d4 - d4) / n.2.

Wn2 d2 as n quasi certamente.3.

In particolare, 2(a) significa che Wn2 è uno stimatore corretto per d2.

3. Usa le proprietà della covarianza per provare che

cov(Mn, Wn2) = d3 / n.

Ne segue che la media campionaria e la varianza campionaria sono incorrelate se d3 = 0, ein ogni caso asintoticamente incorrelate.

4. Usa la disuguaglianza di Jensen per mostrare che E(Wn) d.

Pertanto, Wn è uno stimatore distorto che tende a sottostimare d.

La varianza campionaria

Consideriamo ora il caso, più realistico, in cui µ è ignoto. In questo caso un'idea naturalepotrebbe essere quella di utilizzare una qualche media dei (Xi - Mn)2 per i = 1, 2, ..., n. Sipotrebbe pensare di dividere per n; tuttavia un'altra possibilità è di dividere per unacostante che ci dia uno stimatore corretto per d2.

5. Usa tecniche algebriche di base per dimostrare che

i = 1, ..., n (Xi - Mn)2 = i = 1, ..., n (Xi - µ)2 - n(Mn - µ)2.

6. Usa i risultati dell'esercizio 5 e le proprietà del valore atteso per dimostrare che

E[ i = 1, ..., n (Xi - Mn)2] = (n - 1)d2.

Segue pertanto dall'esercizio 6 che la variabile casuale

Sn2 = [1 / (n - 1)] i = 1, ..., n (Xi - Mn)2

è uno stimatore corretto per d2; tale statistica è detta varianza campionaria. All'attopratico, se n è abbastanza grande, fa poca differenza dividere per n piuttosto che per n - 1.Ritornando all'esercizio 5, osserva che

Sn2 = [n / (n - 1)] Wn

2 + [n / (n - 1)](Mn - µ)2 .

7. Usa la legge forte dei grandi numeri per dimostrare che

Sn2 d2 as n

Varianza campionaria

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample4.html (2 di 6) [22/11/2001 17.52.10]

Page 310: Laboratorio virtuale di probabilità e statistica

quasi certamente.

Ora dimostreremo che Sn2 è un multiplo della somma di tutte le differenze al quadrato.

Ciò ci permette di identificare formule per la varianza di Sn2 e per la covarianza tra Mn e

Sn2.

La formula presentata nell'esercizio seguente è spesso più utile, a fini computazionali,della definizione.

8. Mostra che

Sn2 = [1 / (n - 1)] i = 1, ..., n Xi

2 - [n / (n - 1)] Mn2.

La serie di esercizi che seguono ci permetteranno di calcolare la varianza di Sn2 .

9. Dimostra che

Sn2 = {1 / [2n(n -1)]} (i, j) (Xi - Xj)2.

Suggerimento: Parti dal membro di destra, aggiungi e sottrai Mn nel termine (Xi - Xj)2,espandi e somma termine a termine.

10. Mostra che, per i e j distinti

E[(Xi - Xj)m] = k = 0, ..., m C(m, k) dk dm - k.

Suggerimento: Aggiungi e sottrai µ al termine E[(Xi - Xj)m], e usa il teorema binomiale el'indipendenza.

11. Mostra che var(Sn2) = (1 / n)[d4 - (n - 3)d4 / (n - 1)] utilizzando i seguenti passi:

Usa gli esercizi 8 e 9, e il fatto che la somma e la somma di tutte le covarianzeprese a coppia.

1.

Mostra che cov[(Xi - Xj)2, (Xk - Xl)2] = 0 se i = j o k = l o i, j, k, l sono distinti.2.

Prova che cov[(Xi - Xj)2, (Xi - Xj)2] = 2d4 + 2d4 se i e j sono distinti ed esistono2n(n - 1) termini analoghi nella somma delle covarianze in (a).

3.

Mostra che cov[(Xi - Xj)2, (Xk - Xj)2] = d4 - d4 se i, j, k sono distinti ed esistono4n(n - 1)(n - 2) termini analoghi nella somma delle covarianze in (a).

4.

12. Prova che var(Sn2) > var(Wn

2). Ti sembra intuitivo?

13. Dimostra che var(Sn2) tende a 0 per n che tende a infinito.

14. Usa una tecnica simile a quella proposta nell'esercizio 11 per dimostrare che

Varianza campionaria

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample4.html (3 di 6) [22/11/2001 17.52.10]

Page 311: Laboratorio virtuale di probabilità e statistica

cov(Mn, Sn2) = d3 / n.

Nota in particolare che cov(Mn, Sn2) = cov(Mn, Wn

2). Di nuovo, media e varianzacampionaria sono incorrelate se µ3 = 0, e asintoticamente incorrelate altrimenti.

La radice quadrata della varianza campionaria è la deviazione standard campionaria,indicata con Sn.

15. Usa la disuguaglianza di Jensen per dimostare che E(Sn) d.

Quindi Sn è uno stimatore distorto che tende a sottostimare d.

Simulazioni

Molte delle applets contenute in questo progetto sono simulazioni di esperimenti con unavariabile casuale semplice. Quando lanci una simulazione, generi delle replicazioniindipendenti dell'esperimento. Nella maggior parte dei casi, l'applet mostra la deviazionestandard d della distribuzione sia numericamente in una tabella che graficamente, comelunghezza della barra orizzontale blu sotto il grafico. Quando fai una simulazione, ladeviazione standard campionaria Sn è visualizzata numericamente nella tabella egraficamente come lunghezza della barra orizzontale rossa sotto il grafico.

16. Nell'esperimento binomiale della moneta, la variabile casuale è il numero di teste.Simula 1000 replicazioni aggiornando ogni 10 e osserva la convergenza della deviazionestandard campionaria a quella della distribuzione.

17. Nel matching experiment, la varibile casuale è il numero di successi. Simula 1000replicazioni aggiornando ogni 10 e osserva la convergenza della deviazione standardcampionaria a quella della distribuzione.

18. Simula 1000 replicazioni dell'esperimento esponenziale aggiornando ogni 10.Osserva la convergenza della deviazione standard campionaria a quella delladistribuzione.

Analisi esplorativa dei dati

La media e la deviazione standard campionaria si usano spesso nell'analisi esplorativa deidati come misure rispettivamente del centro e della dispersione dei dati.

19. Calcola media e deviazione standard sui dati di Michelson relativi alla velocitàdella luce.

20. Calcola media e deviazione standard sui dati di Cavendish relativi alla densità dellaterra.

21. Calcola media e deviazione standard del peso sui dati M&M.

Varianza campionaria

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample4.html (4 di 6) [22/11/2001 17.52.10]

Page 312: Laboratorio virtuale di probabilità e statistica

22. Calcola media e deviazione standard della lunghezza dei petali sui dati di Fisherrelativi agli iris nei casi seguenti e confronta i risultati.

Tutte le varietà1.

Solo la setosa2.

Solo la versicolor3.

Solo la verginica4.

Supponiamo di avere, invece dei dati originari, una distribuzione di frequenza di classiA1, A2, ..., Ak, con valori centrali di classe x1, x2, ..., xk, e frequenze n1, n2, ..., nk. Allora

nj = #{i {1, 2, ..., n}: Xi Aj}.

In questo caso i valori approssimati di media e varianza sono

M = j = 1, ..., k nj xj.●

S2 = j = 1, ..., k nj ( xj - M)2.●

Queste approssimazioni sono basate sull'ipotesi che i valori centrali di classerappresentino fedelmente i dati presenti in ogni classe.

23. Nell' istogramma interattivo, seleziona media e deviazione standard. Ponil'ampiezza di classe a 0.1 e costruisci una distribuzione di frequenza con almeno 6 classinon vuote e almeno 10 valori. Calcola manualmente media, varianza e deviazionestandarde verifica i risultati con quelli riportati dall'applet.

24. Nell' istogramma interattivo, seleziona media e deviazione standard. Ponil'ampiezza di classe a 0.1 e costruisci una distribuzione di frequenza con almeno 30 valoridi ciascuno dei tipi indicati sotto. Incrementa l'ampiezza di classe e osserva la posizione ela dimensione della barra media/deviazione standard.

Distribuzione uniforme.1.

Distribuzione simmetrica unimodale.2.

Distribuzione unimodale asimmetrica a destra.3.

Distribuzione unimodale asimmetrica a sinistra.4.

Distribuzione simmetrica bimodale.5.

Distribuzione a forma di u.6.

25. Nell' istogramma interattivo, costruisci una distribuzione con la più alta deviazionestandard possibile.

26. Basandoti sulla risposta all'esercizio 25, definisci le distribuzioni (su un intervallo[a, b] dato) con la deviazione standard più alta possibile.

Varianza campionaria

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample4.html (5 di 6) [22/11/2001 17.52.10]

Page 313: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Campioni casuali > 1 2 3 [4] 5 6 7 8 9Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Varianza campionaria

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample4.html (6 di 6) [22/11/2001 17.52.10]

Page 314: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli di campionamento finito > 1 2 3 4 5 [6] 7 8 9 10

6. Il problema della concordanza

Il problema della concordanza è un esperimento casuale che può essere formulato in moltimodi coloriti:

Supponiamo che n coppie sposate siano a una festa e che uomini e donne siscelgano a caso per un ballo. La concordanza si ha se una coppia sposata ballainsieme.

Una segretaria distratta prepara n lettere e buste per spedirle a n persone diverse,ma poi mette le lettere a caso nelle buste. Una concordanza si ha se la lettera vieneinserita nella busta corretta.

n persone che portano il cappello hanno bevuto troppo a una festa. Quando escono,ciascuno prende un cappello a caso. Si ha concordanza se una persona prende ilproprio cappello.

Tali esperimenti sono ovviamente equivalenti dal punto di vista formale, e corrispondonoad estrarre l'intera popolazione, senza reinserimento, dalla popolazione D = {1, 2, ..., n}.Quindi la variabile esito

X = (X1, X2, ..., Xn)

è distribuita uniformemente sullo spazio campionario di permutazioni di D. Il numero diunità n è il parametro dell'esperimento.

Concordanze

Diremo che si ha una concordanza alla posizione i se Xi = i. Quindi il numero diconcordanze è la variabile casuale Nn definita formalmente come

Nn = I1 + I2 + ··· + In dove Ij = 1 se Xj = j e Ij = 0 altrimenti.

Per trovare la funzione di densità discreta del numero di concordanze, dobbiamo contare ilnumero di permutazioni con un numero specificato di concordanze. Ciò è facile una voltacontato il numero di permutazioni senza concordanze che si dicono discordanze di {1, 2,..., n}. Indicheremo il numero di permutazioni che presentano esattamente k concordanzecon

bn(k) = #{Nn = k} for k in {0, 1, ..., n}.

Discordanze

1. Usa le proprietà della misura di conteggio per mostrare che

bn(0) = n! - #{Xi = i per qualche i}.

Il problema della concordanza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn6.html (1 di 4) [22/11/2001 17.52.16]

Page 315: Laboratorio virtuale di probabilità e statistica

2. Usa la formula di inclusione-esclusione del calcolo combinatorio per mostrare che

bn(0) = n! - j = 1, ..., n (-1)j nj.

dove nj = {J: #(J) = j} #{Xi = i per i J}.

3. Prova che se #(J) = j allora

#{Xi = i per i appartenente a J} = (n - j)!.

4. Usa i risultati degli esercizi 2 e 3 per mostrare che

bn(0) = n! j = 0, ..., n (-1)j / j!.

5. Calcola il numero di discordanze di 10 unità.

Permutazioni con k concordanze

6. Mostra che la seguente procedura a due passo genera tutte le permutazioni conesattamente k concordanze.

Seleziona i k interi che concordano.1.

Seleziona una permutazione dei restanti n - k interi che non concordano.2.

7. Prova che il numero di modi di eseguire i passi dell'esercizio 6 sono,rispettivamente,

C(n, k)1.

bn - k(0)2.

8. Usa la regola del prodotto del calcolo combinatorio per mostrare che

bn(k) = (n! / k!) j = 0, ..., n - k (-1)j / j!.

9. Con n = 5, calcola il numero di permutazioni con k concordanze, per k = 0, ..., 5.

La funzione di densità

10. Usa il risultato dell'esercizio 8 per mostrare che la funzione di densità di Nn è

P(Nn = k) = (1 / k!) j = 0, ..., n - k (-1)j / j! per k = 0, 1, ..., n.

11. Nell'esperimento della concordanza, inizia con n = 2 e clicca ripetutamente sulla

Il problema della concordanza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn6.html (2 di 4) [22/11/2001 17.52.16]

Page 316: Laboratorio virtuale di probabilità e statistica

barra a scorrimento per incrementare n, osservando come cambia il grafico della funzionedi densità. Con n = 10, simula 1000 replicazioni, aggiornando ogni 10. Osserva laconvergenza della densità empirica a quella teorica.

12. Calcola esplicitamente la funzione di densità di N5.

13. Mostra che P(Nn = n - 1) = 0. Dai una dimostrazione probabilistica mostrando chel'evento è impossibile e una dimostrazione algebrica utilizzando la funzione di densitàdell'esercizio 8.

L'approssimazione di Poisson

14. Prova che

P(Nn = k) e-1 / k! as n .

Come funzione di k, il membro di destra dell'espressione dell'esercizio 1 è la funzione didensità di Poisson con parametro 1. Pertanto, la distribuzione del numero di concordanzeconverge alla distribuzione di Poisson con parametro 1 al crescere di n. La convergenza èmolto rapida: la distribuzione del numero di concordanze con n = 10 è più o meno lastessa del caso in cui n = 1000000!

15. Nell'esperimento della concordanza, poni n = 10. Simula 1000 replicazioni,aggiornando ogni 10. Confronta le frequenze relative, le probabilità vere e leprobabilità-limite di Poisson per il numero di concordanze.

Momenti

Media e varianza del numero di concordanze possono essere ricavate direttamente dalladistribuzioni. Tuttavia, è molto più comoda la rappresentazione in termini di variabiliindicatore. La proprietà di scambiabilità è molto importante in questo contesto.

16. Mostra che E(Ij) = 1 / n per ogni j.

17. Prova che E(Nn) = 1. Suggerimento: Usa il risultato dell'esercizio 1 e le proprietàdel valore atteso.

Segue quindi che il numero atteso di concordanze è 1, indipendentemente dalladimensione della permutazione n.

18. Nell'esperimento della concordanza, inizia con n = 2 e clicca ripetutamente sullabarra a scorrimento per incrementare n, osservando come la media non cambi. Con n =10, simula 1000 replicazioni, aggiornando ogni 10. Osserva la convergenza della mediacampionaria alla media della distribuzione.

19. Prova che var(Ij) = (n - 1) / n2 per ogni j.

Il problema della concordanza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn6.html (3 di 4) [22/11/2001 17.52.16]

Page 317: Laboratorio virtuale di probabilità e statistica

Una concordanza in una posizione dovrebbe rendere più probabili una concordanza inun'altra. Possiamo quindi immaginare che le variabili indicatore siano positivamentecorrelate.

20. Prova che se j e k sono distinti allora

cov(Ij, Ik) = 1 / [n2(n - 1)].1.

cor(Ij, Ik) = 1 / (n - 1)2.2.

Dall'esercizio 20, per n = 2, l'evento in cui c'è una concordanza alla posizione 1 èperfettamente correlato con la concordanza alla posizione 2. Ti sembra ragionevole?

21. Mostra che var(Nn) = 1. Suggerimento: Usa gli esercizi 4 e 5 e la proprietà dellacovarianza.

Segue che la varianza del numero di concordanze è 1, indipendentemente dalladimensione della permutazione n.

22. Per n = 5, calcola la covarianza e la correlazione tra una concordanza allaposizione j e una alla posizione k, dove j e k sono distinti.

23. Nell'esperimento della concordanza, inizia con n = 2 e clicca ripetutamente sullabarra a scorrimento per incrementare n, osservando come la deviazione standard noncambi. Con n = 10, simula 1000 replicazioni, aggiornando ogni 10. Osserva laconvergenza della deviazione standard campionaria alla deviazione standard delladistribuzione.

24. Mostra che, per j e k distinti,

cov(Ij, Ik) 0 per n .

Segue che l'evento concordanza alla posizione j è praticamente indipendente dallaconcordanza alla posizione k se n è grande. Per n sufficientemente grande, le variabiliindicatore si comportano quasi come n prove Bernoulliane con probabilità di successo 1 /n. Ciò dà ulteriori indizi sulla convergenza della distribuzione del numero di concordanzealla distribuzione di Poisson al crescere di n. Nota inoltre che la distribuzione limite diPoisson ha media 1 e varianza 1.

Laboratorio virtuale > Modelli di campionamento finito > 1 2 3 4 5 [6] 7 8 9 10Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Il problema della concordanza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn6.html (4 di 4) [22/11/2001 17.52.16]

Page 318: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Campioni casuali > 1 2 3 4 5 6 7 8 [9]

9. Covarianza e correlazione campionaria

Il modello bivariato

Introduciamo, come al solito, un esperimento casuale semplice definito su un certo spaziocampionario e con una certa misura di probabilità. Supponiamo che X e Y siano variabilicasuali a valori reali relative all'esperimento. Indicheremo medie, varianze, e covarianzecome segue:

µX = E(X)●

µY = E(Y)●

dX2 = var(X)●

dY2 = var(Y)●

dX,Y = cov(X, Y).●

Ricordiamo infine che la correlazione vale pX,Y = cor(X, Y) = dX,Y / (dX dY).

Supponiamo ora di ripetere l'esperimento n volte per ottenere n vettori aleatori indipendenti,ciscuno distribuito come (X, Y). Ciò significa estrarre un campione casuale di dimensione ndalla distribuzione

(X1, Y1), (X2, Y2), ..., (Xn, Yn).

Come sopra, utilizzeremo l'indice inferiore per distinguere media campionaria e varianzacampionaria delle variabili X e Y. Ovviamente queste statistiche dipendono dalla dimensionedel campione n, ma per semplicità non terremo conto di questa dipendenza nella notazione.

In questo paragrafo definiremo e studieremo statistiche che costituiscono stimatori naturalidella covarianza e della correlazione della distribuzione. Queste statistiche misurano larelazione lineare che intercorre tra i punti del campione nel piano. Al solito, le definizionidipenderanno da quali parametri sono noti e quali no.

Uno stimatore della covarianza con µX e µY noti

Immaginiamo in primo luogo che le medie µX e µY siano note. Questa assunzione è di solitopoco realistica, ma è un buon punto di partenza, poiché il risultato è molto semplice e utileper quanto seguirà. In questo caso, uno stimatore naturale per dX,Y è

WX,Y = (1 / n) i = 1, ..., n (Xi - µX)(Yi - µY).

1. Prova che WX,Y è la media campionaria di un campione di dimensione n estratto dalladistribuzione di (X - µX)(Y - µY).

Covarianza e correlazione campionaria

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample9.html (1 di 6) [22/11/2001 17.52.25]

Page 319: Laboratorio virtuale di probabilità e statistica

2. Usa il risultato dell'esercizio 1 per mostrare che

E(WX,Y) = dX,Y.1.

WX,Y dX,Y per n quasi certamente.2.

In particolare, WX,Y è uno stimatore corretto per dX,Y.

La covarianza campionaria

Consideriamo ora il caso più realistico in cui le medie µX e µY sono ignote. In questo caso unapproccio naturale è fare la media dei

(Xi - MX)(Yi - MY)

per i = 1, 2, ..., n. Piuttosto che dividere per n, però, dovremo dividere per una costante cherestituisca uno stimatore corretto per dX,Y.

3. Interpreta geometricamente il segno degli (Xi - MX)(Yi - MY), in termini delladispersione di punti e del suo centro.

4. Dimostra che cov(MX, MY) = dX,Y / n.

5. Prova che

i = 1, ..., n (Xi - MX)(Yi - MY) = n [WX,Y - (MX - µX)(M2 - µY)].

6. Usa il risultato dell'esercizio 5 e le proprietà del valore atteso per dimostrare che

E[ i = 1, ..., n (Xi - MX)(Yi - MY)] = (n - 1)dX,Y.

Pertanto, per avere uno stimatore corretto di dX,Y, dobbiamo definire la covarianzacampionaria come

SX,Y = [1 / (n - 1)] i = 1, ..., n (Xi - MX)(Yi - MY).

Analogamente a quanto avviene per la varianza campionaria, se n è grande non fa moltadifferenza dividere per n piuttosto che per n - 1.

Proprietà

La formula presentata nel prossimo esercizio è spesso più utile di quella generale ai finicomputazionali.

7. Prova che

SX,Y = [1 / (n - 1)] i = 1, ..., n XiYi - [n / (n - 1)]MXMY.

Covarianza e correlazione campionaria

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample9.html (2 di 6) [22/11/2001 17.52.25]

Page 320: Laboratorio virtuale di probabilità e statistica

8. Usa il risultato dell'esercizio 5 e la legge forte dei grandi numeri per dimostrare che

SX,Y dX,Y as n quasi certamente.

Le proprietà che saranno introdotte negli esercizi seguenti sono analoghe a quelle relativealla covarianza della distribuzione.

9. Prova che SX,X = SX2.

10. Mostra che SX,Y = SY,X.

11. Dimostra che, se a è costante, allora SaX, Y = a SX,Y.

12. Supponi di avere un campione casuale di dimensione n estratto dalla distribuzione di(X, Y, Z). Prova che

SX,Y + Z = SX,Y + SX,Z.

La correlazione campionaria

Analogamente alla correlazione della distribuzione, la correlazione campionaria si ottienedividendo la covarianza campionaria per il prodotto delle deviazioni standard campionarie:

RX,Y = SX,Y / (SXSY).

13. Usa la legge forte dei grandi numeri per dimostrare che

RX,Y pX,Y as n quasi certamente 1.

14. Clicca sull'applet diseprsione interattiva per definire 20 punti e cerca di avvicinarti ilpiù possibile alle seguenti condizioni: media campionaria 0, deviazione standardcampionaria 1, correlazione campionaria: 0, 0.5, -0.5, 0.7, -0.7, 0.9, -0.9.

15. Clicca sull'applet dispersione interattiva per definire 20 punti e cerca di avvicinarti ilpiù possibile alle seguenti condizioni: media campionaria di X 1, media campionaria di Y 3,deviazione standard campionaria di X 2, deviazione standard campionaria di Y 1,correlazione campionaria: 0, 0.5, -0.5, 0.7, -0.7, 0.9, -0.9.

Il miglior predittore lineare

Ricorda che nella sezione su correlazione e regressione (relative alla distribuzione), abbiamodimostrato che il miglior predittore lineare di Y dato X, ovvero la previsione che minimizzal'errore quadratico medio è

aX + b dove a = dX,Y / dX2 e b = µY - a µX .

Inoltre, il valore (minimo) dell'errore quadratico medio, con questi valori di a e b, è

E{[Y - (aX + b)]2} = dY2 (1 - pX,Y

2).

Covarianza e correlazione campionaria

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample9.html (3 di 6) [22/11/2001 17.52.25]

Page 321: Laboratorio virtuale di probabilità e statistica

Ovviamente, all'atto pratico, è improbabile conoscere i parametri della distribuzionenecessari per trovare a e b. Siamo pertanto interessati al problema della stima del migliorpredittore lineare di Y dato X sulla base dei dati del campione.

(X1, Y1), (X2, Y2), ..., (Xn, Yn).

Un approccio naturale è trovare la retta

y = Ax + B

che si adatta meglio ai punti della dispersione. Questo è un problema fondamentale in moltirami della matematica e non solo in statistica. Il termine migliore sta a significare chevogliamo trovare la retta (ovvero, trovare A e B) che minimizza la media degli erroriquadratici tra i valori reali e quelli previsti per y:

MSE = [1 / (n - 1)] i = 1, ..., n[Yi - (AXi + B)]2.

Trovare A e B che minimizzano MSE è un problema comune in analisi.

16. Prova che MSE è minimo per

A = SX,Y / SX2.1.

B = MY - AMX.2.

17. Prova che il valore minimo di MSE, per A e B dati nell'esercizio 16, è

MSE = SY2[1 - RX,Y

2].

18. Usa il risultato dell'esercizio 17 per mostrare che

RX,Y [-1, 1].a.

RX,Y = -1 se e solo se i punti della dispersione giacciono su una retta con pendenzanegativa.

2.

RX,Y = 1 se e solo se i punti della dispersione giacciono su una retta con pendenzapositiva.

3.

Pertanto, la correlazione campionaria misura il grado di linearità dei punti della dispersione. Irisultati dell'esercizio 18 possono essere ottenuti anche osservando che la correlazionecampionaria è semplicemente la correlazione della distribuzione empirica. Ovviamente, leproprietà (a), (b) e (c) sono note per la correlazione della distribuzione.

Il fatto che i risultati degli esercizio 17 e 18 siano gli stessi di quelli ottenuti in precedenzarelativamente alla distribuzione è importante e rassicurante. La retta y = Ax + B, dove A e Bsono quelli indicati nell'esercizio 17, è detta retta di regressione (campionaria) per Y dato X.Nota dal 17 (b) che la retta di regressione passa per (MX , MY ), ovvero il centro delladistribuzione empirica. Naturalmente, A e B possono essere interpretati come stimatoririspettivamente a e b.

19. Usa la legge dei grandi numeri per dimostrare che A converge quasi certamente ad a eB a b per n che tende a infinito.

Covarianza e correlazione campionaria

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample9.html (4 di 6) [22/11/2001 17.52.25]

Page 322: Laboratorio virtuale di probabilità e statistica

Esattamente come nel caso delle rette di regressione relative alla distribuzione, la selezionedel predittore e delle variabili di risposta è importantissima.

20. Dimostra che la retta di regressione del campione di Y da X e quella di X da Y noncoincidono, a parte il caso in cui i punti giacciano tutti su una linea.

Ricorda che la costante B che minimizza

MSE = [1 / (n - 1)] i = 1, ..., n (Yi - B)2.

è la media campionaria MY, e il valore minimo di MSE è la varianza campionaria SY2.

Pertanto, la differenza tra questo valore dell'errore quadratico medio e quello riportatonell'esercizio 17, cioè

SY2 RX,Y

2,

è la riduzione di variabilità delle Y quando il termine lineare in X viene aggiunto alpredittore. La riduzione, in termini frazionari, è RX,Y

2, e pertanto questa statistica è dettacoefficiente di determinazione (campionario).

Simulazione

21. Clicca sull'applet dispersione interattiva in vari punti e osserva come la retta diregressione varia.

22. Clicca sull'applet dispersione interattiva e definisci 20 punti. Cerca di fare in modoche la media delle x sia 0 e la deviazione standard 1, e che la retta di regressione abbia

pendenza 1, intercetta 11.

pendenza 3, intercetta 02.

pendenza -2, intercetta 13.

23. Clicca sull'applet dispersione interattiva e definisci 20 punti con le seguenti proprietà:media delle x 1, media delle y 1, retta di regressione con pendenza 1 e intercetta 2.

Se l'esercizio 23 ti ha creato problemi, è perché le condizioni sono impossibili da soddisfare!

24. Esegui l'esperimento bivariato uniforme 2000 volte, aggiornando ogni 10, in ciascunodei casi seguenti. Osserva la convergenza delle medie campionarie, delle deviazioni standardcampionarie, della correlazione campionaria e della retta di regressione campionaria alle lorocontroparti teoriche.

Distribuzione uniforme su un quadrato1.

Distribuzione uniforme su un triangolo2.

Distribuzione uniforme su un cerchio3.

25. Esegui l'esperimento bivariato uniforme 2000 volte, aggiornando ogni 10, in ciascunodei casi seguenti. Osserva la convergenza delle medie campionarie, delle deviazioni standardcampionarie, della correlazione campionaria e della retta di regressione campionaria alle loro

Covarianza e correlazione campionaria

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample9.html (5 di 6) [22/11/2001 17.52.25]

Page 323: Laboratorio virtuale di probabilità e statistica

controparti teoriche.

sd(X) = 1, sd(Y) = 2, cor(X, Y) = 0.51.

sd(X) = 1.5, sd(Y) = 0.5, cor(X, Y) = -0.72.

Esercizi numerici

26. Calcola la correlazione tra lunghezza e larghezza dei petali nei seguenti casi sui dati diFisher sugli iris. Commenta le differenze.

Tutte le varietà1.

Solo la Setosa2.

Solo la Verginica3.

Solo la Versicolor4.

27. Calcola la correlazione tra ciascuna coppia di colori sui dati M&M.

28. Utilizzando tutte le varietà sui dati di Fisher inerenti gli iris,

Calcola la retta di regressione con la lunghezza del petalo come variabile indipendentee larghezza come variabile dipendente.

1.

Disegna la dispersione dei punti e la retta di regressione.2.

Trova il valore previsto per la larghezza di un petalo di lunghezza 403.

29. Usando solo i dati della varietà Setosa nei dati di Fisher inerenti gli iris,

Calcola la retta di regressione con la lunghezza del sepalo come variabile indipendentee larghezza come variabile dipendente.

1.

Disegna la dispersione dei punti e la retta di regressione.2.

Trova il valore previsto per la larghezza di un sepalo di lunghezza 453.

Laboratorio virtuale > Campioni casuali > 1 2 3 4 5 6 7 8 [9]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Covarianza e correlazione campionaria

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample9.html (6 di 6) [22/11/2001 17.52.25]

Page 324: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15

14. La distribuzione lognormale

Una variabile casuale X ha distribuzione lognormale, con parametri µ e d, se ln(X) hadistribuzione normale con media µ e deviazione standard d. Equivalentemente

X = exp(Y)

dove Y è distribuita normalmente con media µ e deviazione standard d. Ricorda che ilparametro µ può essere un qualsiasi reale, mentre d dev'essere positivo. La distribuzionelognormale si utilizza per modellare quantità aleatorie continue che si ritengono averedistribuzione asimmetrica, ad esempio certi tipi di reddito o la speranza di vita.

Distribuzione

1. Usa il teorema del cambiamento di variabile per dimostrare che la funzione didensità lognormale con parametri µ e d, è data da

f(x) = exp{-[ln(x) - µ]2 / (2d2)] / [x (2 )1/2 d] for x > 0.

2. Dimostrare che la distribuzione lognormale è unimodale e asimmetrica a destra.Mostrare in particolare che

f(x) è cerscente per 0 < x < exp(µ - d2) e decrescente per x > exp(µ - d2).1.

La moda è exp(µ - d2).2.

f(x) 0 per x .3.

f(x) 0 per x 0+.4.

3. Nell'appletvariabile casuale, seleziona la distribuzione lognormale. Modifica iparametri e osserva la forma e la posizione della funzione di densità. Ponendo µ = 0 e d =1, simula 1000 replicaziuni aggiornando ogni 10. Osserva la convergenza della densitàempirica a quella teorica.

Sia G la funzione di ripartizione della distribuzione normale standardizzata. Ricorda che ivalori di G sono tabulati e possono essere ottenuti dall'axplet quantile. Gli eserciziseguenti mostrano come calcolare la funzione di ripartizione e i quantili utilibzando lafunrione di riaprtizione e i quantili della normale standardizzata.

4. Mostra che la funzione di ripartizione F della distribuzione lognormale è data da

F(x) = G{[-µ + ln(x)] / d} per x > 0.

5. Prova che la funzione quantile è data da

F-1(p) = exp[µ + d G-1(p)] per 0 < p < 1.

La distribuzione lognormale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special14.html (1 di 3) [22/11/2001 17.52.29]

Page 325: Laboratorio virtuale di probabilità e statistica

6. Supponi che il reddito (in migliaia di euro) X di un individuo preso a caso da unacerta popolazione abbia distribuziore lognormale con parametri µ = 2 e d = 1. Trova P(X> 20).

7. Nell'applet quantile, seleziona la distribuzione lognormale. Modifica i parametri eosserva la forma e la posizione delle funzioni di densità e di ripartizione. Ponendo µ = 0and d = 1, trova la mediana e il primo e il terzo quartile.

Momenti

I momenti della distribuzione lognormale possono essere calcolati sulla base dellafunzione generatrice dei momenti della distribuzione normale.

8. Si supponga X abbia distribuzione lognormale con parametri µ e d.Mostrare che

E(Xn) = exp(nµ + n3d2 / 2).

9. Si mostri che media e varianza di X valgono

E(X) = exp(µ + d2 / 2).1.

var(X) = exp[2(µ + d2)] - exp(2µ + d2).2.

Anche se la distribuzione lognormale ha momenti finiti di qualsiasi ordine, la funzionegeneratrice dei momenti è infinita per ogni numero positivo. Questa proprietà è una delreragioni della notorietà della distribuzione lognormale.

10. Prova che E[exp(tX)] = per ogni t > 0.

11. Supponi che il reddito (in migliaia di euro) X di un individuo preso a caso da unacerta popolazione abbia distribuzione lognormale con parametri µ = 2 e d = 1. Trova

E(X)1.

sd(X)2.

12. Nell'appletvariabile casuale, seleziona la distribuzione lognormale. Modifica iparametri e osserva la dimensione e la posizione della barra media/deviazione standard.Ponendo µ = 0 e d = 1, simula 1000 replicazioni aggiornando ogni 10. Osserva laconvergenza dei momenti empirici a quelli teorici.

Trasformazioni

Le trasformazioni più rilevanti sono quelle già presentate nella definizione di questadistribuzione: se X ha distribuzione lognormale, allora ln(X) ha distribuzione normale; diconverso, se Y ha distribuzione normale, allora exp(Y) ha distribuzione lognormale.

13. Dato un certo d, mostra che la distribuzione lognormale con parametri µ e d è unafamiglia di scala con parametro di scala exp(µ).

La distribuzione lognormale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special14.html (2 di 3) [22/11/2001 17.52.29]

Page 326: Laboratorio virtuale di probabilità e statistica

14. Prova che la distribuzione lognormale è una famiglia esponenziale a due parametricon parametri naturali e statische naturali dati da

-1/(2d2), µ / d2.1.

ln2(x), ln(x)2.

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione lognormale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special14.html (3 di 3) [22/11/2001 17.52.29]

Page 327: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Calcolo combinatorio > [1] 2 3 4 5

1. Principi fondamentali

Distribuzioni uniformi discrete

Se una variabile casuale X di un esperimento è distribuita uniformemente su unsottinsieme finito S, allora la distribuzione di probabilità di X è proporzionale alla misuradi conteggio:

P(X A) = #(A) / #(S) per A S.

Variabili casuali di questo tipo si presentano di frequente in diversi tipi di esperimento, inparticolare quelli che possono essere interpretati come campionamento da un insiemefinito. L'insieme S è di solito molto grande, sono quindi essenziali metodi di conteggioefficienti. Il primo problema combinatorio è attribuito al matematico greco Xenocrate.

Corrispondenza biunivoca

In molti casi, un insieme di oggetti può essere contato stabilendo una corrispondenzabiunivoca tra l'insieme dato e un altro insieme. Ovviamente, i due insiemi hanno lo stessonumero di elementi, ma per qualche ragione il secondo può essere più semplice dacontare.

La regola additiva

La regola additiva del calcolo combinatorio è semplicemente l'assioma di additività dellamisura di conteggio. Se A1, A2, ..., An sono sottinsiemi disgiunti di un insieme finito Sallora

#(A1 A2 ··· An) = #(A1) + #(A2) + ··· + #(An)

Ricorda inoltre che le regole della probabilità hanno i loro analoghi per la misura diconteggio. Le più importanti sono riportate nei seguenti esercizi:

1. Prova che #(Ac) = #(S) - #(A)

2. Prova che #(B Ac) = #(B) - #(A B).

3. Prova che se A B allora #(B Ac) = #(B) - #(A).

La formula di inclusione-esclusione

4. Prova che #(A B) = #(A) + #(B) - #(A B).

5. Prova che

Principi fondamentali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb1.html (1 di 6) [22/11/2001 17.52.40]

Page 328: Laboratorio virtuale di probabilità e statistica

#(A B C) = #(A) + #(B) + #(C) - #(A B) - #(A C) - #(B C) + #(A B

C).

Gli esercizi 11 e 12 possono essere generalizzati all'unione di n eventi Ai, i = 1, 2, ...n; lageneralizzazione è detta formula di inclusione-esclusione. Per semplificare la notazione,sia N l'insieme di indici: I = {1, 2, ..., n} e definiamo

nJ = # [ j in J Aj] for J N,

mk = {J: #(J) = k} nJ per k N.

6. Prova che # [ i = 1, ..., n Ai] = k = 1, ..., n (-1)k - 1 mk.

Le disuguaglianze di Bonferroni affermano che se la sommatoria al termine di destra ètroncata dopo k termini (k < n), allora la sommatoria troncata è un limite superiore per lacardinalità dell'unione se k è dispari (cosicché l'ultimo termine ha segno positivo) einferiore per la cardinalità dell'unione se k è pari (cosicché l'ultimo ha segno negativo).

La regola del prodotto

La regola del prodotto del calcolo combinatorio è basata sulla formulazione di unaprocedura (o algoritmo) che genera gli oggetti che vengono contati. Specificamente,supponiamo che la procedura consista di k passi, eseguiti in sequenza, e che per ognipasso j possa essere eseguito in nj modi, indipendentemente dalle scelte fatte ai passiprecedenti. Allora, il numero di modi in cui si può eseguire l'intero algoritmo (e quindi ilnumero di oggetti) è

n1 n2 ··· nk.

Il modo per applicare correttamente la regola del prodotto a un problema di conteggio èformulare in maniera precisa un algoritmo che genera gli oggetti che si devono contare,cosicché ogni oggetto sia generato una e una sola volta.

I primi due esercizi qui sotto riportano formulazioni equivalenti del principio del prodotto.

7. Supponi che S sia un insieme di successioni di lunghezza k, e che si indichino glielementi di S con

(x1, x2, ..., xk)

Supponi che, per ogni j, xj abbia nj differenti valori, indipendentemente dai valori dellecoordinate precedenti. Prova che la cardinalità di A è

n1 n2 ··· nk.

8. Supponi che T sia un albero ordinato con profondità k e che ogni vertice di livello i -

Principi fondamentali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb1.html (2 di 6) [22/11/2001 17.52.40]

Page 329: Laboratorio virtuale di probabilità e statistica

1 abbia ni figli per i = 1, 2, ..., k. Prova che il numero di vertici a livello k è

n1 n2 ··· nk.

9. Un numero identificativo è formato da due lettere (maiuscole) seguite da cinquenumeri (0-9).

Quanti diversi numeri identificativi esistono?1.

Se si sceglie a caso un numero identificativo, trova la probabilità che i numeri sianotutti minori di 5.

2.

10. Supponi che un PIN (Personal Identification Number) sia una parola formata daquattro simboli in cui ciascun simbolo può essere un numero o una lettera (maiuscola).

Quanti PIN esistono?1.

Se si sceglie a caso un PIN, trova la probabilità che tutti i simboli siano lettere.2.

11. Nel gioco da tavola Cluedo, il signor Boddy è stato assassinato. Ci sono seisospettati, sei possibili rami del delitto e nove possibili stanze del delitto.

Il gioco include una carta per ogni sospettato, arma e stanza. Quante carte ci sono?1.

L'esito del gioco è una sequenza formata da un sospettato, un'arma e una stanza(per esempio, il Colonello Mustard col coltello nella stanza del biliardo). Quantiesiti ci sono?

2.

Una volta che le tre carte che costituiscono la soluzione sono state estratte, le carterestanti sono distribuite tra i giocatori. Supponi di ricevere 5 carte: quale mano è lamigliore al fine di trovare la soluzione?

3.

Insiemi prodotto

12. Supponi che Si sia un insieme con ni elementi per i = 1, 2, ..., k. Prova che

#(S1 × S2 × ··· × Sn ) = n1 n2 ··· nk.

In particolare, se Si è lo spazio campionario dell'esperimento Ei, allora questo prodotto dàil numero di esiti dell'esperimento composto consistente nell'eseguire E1, ..., Ek insequenza.

13. Un esperimento consiste nel lanciare un dado bilanciato, estrarre una carta da unmazzo standard e lanciare una moneta equilibrata.

Quanti esiti ci sono?1.

Trova la probabilità che il punteggio del dado sia pari, la carta sia di cuori e lamoneta sia testa.

2.

14. Mostra che, se S è un insieme di m elementi, allora Sn ha mn elementi.

In particolare, se un esperimento semplice ha m esiti, allora l'esperimento composto checonsiste di n replicazioni dell'esperimento semplice ha mn esiti.

Principi fondamentali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb1.html (3 di 6) [22/11/2001 17.52.40]

Page 330: Laboratorio virtuale di probabilità e statistica

15. Si lancia 5 volte un dado bilanciato e si registra la sequenza di punteggi.

Quanti esiti ci sono?1.

Trova la probabilità che il primo e l'ultimo lancio siano 6.2.

16. Prova che il numero di campioni ordinati di dimensione n che può essere estrattocon reinserimento da una popolazione di m unità è mn.

17. Supponi che 10 persone siano selezionate a caso e se ne registrino i compleanni.

Quanti esiti ci sono?1.

Trova la probabilità che tutte e 10 le persone siano nate di maggio.2.

18. Mostra che il numero di funzioni da un insieme A di n elementi in un insieme B dim elementi è mn.

Gli elementi di {0,1}n si dicono a volte stringhe di bit di lunghezza n. L'esitodell'esperimento formato da n prove Bernoulliane è una stringa di bit di lunghezza n.

19. Prova che il numero di stringhe di bit di lunghezza n è 2n.

20. Si lancia 10 volte una moneta bilanciata.

Quanti esiti ci sono?1.

Trova la probabilità che i primi tre lanci diano testa.2.

21. Una ghirlanda di luci ha 20 lampadine, ciascuna delle quali può essere guasta ofunzionante. Quante possibili configurazioni ci sono?

22. L'esperimento dado-moneta consiste nel lanciare un dado e poi lanciare unamoneta il numero di volte indicato dal dado. Si registra la sequenza di risultati dellemonete.

Quanti esiti ci sono?1.

Trova la probabilità che tutte le monete risultino testa.2.

23. Replica l'esperimento dado-moneta 1000 volte, aggiornando ogni 10. Confronta laprobabilità empirica che tutte le monete siano testa con la probabilità vera trovatanell'esercizio precedente.

La tavola di Galton

La tavola di Galton, che prende nome da Francis Galton, è una matrice triangolare dichiodi (Galton la chiamò quincunx). Le righe sono numerate, da cima a fondo, con 0, 1,.... La riga k ha k + 1 chiodi etichettati, da sinistra a destra, con 0, 1, ..., i. Pertanto, unchiodo può essere identificato unicamente da una coppia ordinata (i, j) dove i è il numerodi riga j è il numero del chiodo della riga.

Principi fondamentali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb1.html (4 di 6) [22/11/2001 17.52.40]

Page 331: Laboratorio virtuale di probabilità e statistica

Si lascia cadere una pallina sul chiodo iniziale (0, 0) della tavola di Galton. In generale,quando la pallina colpisce il chiodo (i, j), può finire a sinistra, sul chiodo (i + 1, j) o adestra, sul chiodo (i + 1, j + 1). La sequenza di chiodi che la pallina colpisce è dettasentiero.

24. Mostra che esiste una corrispondenza biunivoca tra ciascuna coppia delle seguentitre collezioni:

Stringhe di bit di lunghezza n1.

Sentieri nella tavola di Galton da (0, 0) fino a un chiodo della riga n.2.

Sottinsiemi di un insieme con n elementi.3.

Segue quindi, dall'esercizio precedente, che ciascuna delle seguenti collezioni ha 2n

elementi. In particolare, un esperimento con n esiti ha 2n eventi.

25. Nel gioco della tavola di Galton, muovi la pallina da (0,0) a (10,6) seguendo unsentiero a tua scelta. Osserva la corrispondente stringa di bit e sottinsieme.

26. Nel gioco della tavola di Galton, genera la stringa di bit 011100101. Osserva ilcorrispondente sentiero e sottinsieme.

27. Nel gioco della tavola di Galton, genera il sottinsieme {2, 4, 5, 9, 12}. Osserva lacorrispoendente stringa di bit e sentiero.

28. Nel gioco della tavola di Galton, genera tutti i sentieri tra (0, 0) e (4, 2). Quantisentieri ci sono?

29. Supponi che A1, A2, ..., Ak siano eventi di un esperimento casuale. Prova che

esistono 2^(2k) eventi differenti (in genere) che possono essere costruiti a partire dai keventi dati, utilizzando le operazioni di unione, intersezione e complementazione. Iseguenti passi mostrano come:

Mostra che esistono 2k eventi a due a due disgiunti della forma B1 B2 ···

Bk dove Bi è o Ai o Aic per ogni i.

1.

Spiega perché ogni evento che può essere costruito a partire da A1, A2, ..., Ak èl'unione di qualcuno (forse tutti, forse nessuno) degli eventi in (a).

2.

30. Nell'applet diagramma di Venn, osserva il diagramma di ciascuno dei 16 eventichepossono essere costruiti a partire da A e B.

31. Supponi che S sia un insieme formato da n elementi e che A sia un sottinsieme diS con k elementi. Se si seleziona casualmente un sottinsieme di S, trova la probabilità checontenga A.

Argomenti correlati

Le applicazioni più semplici del principio del prodotto sono le permutazioni e le

Principi fondamentali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb1.html (5 di 6) [22/11/2001 17.52.40]

Page 332: Laboratorio virtuale di probabilità e statistica

combinazioni. È interessante anche notare che il principio del prodotto è la misura diconteggio analoga alla regola del prodotto per la probabilità condizionata. I metodi dicalcolo combinatorio ricoprono un ruolo fondamentale nel capitolo sui modelli dicampionamento finito.

Laboratorio virtuale > Calcolo combinatorio > [1] 2 3 4 5Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Principi fondamentali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb1.html (6 di 6) [22/11/2001 17.52.40]

Page 333: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Calcolo combinatorio > 1 [2] 3 4 5

2. Permutazioni

Permutazioni

Consideriamo un insieme D con n elementi. Una permutazione di lunghezza k da D è unasequenza ordinata

(x1, x2, ..., xk)

di k elementi distinti di D (ovviamente, k non può essere maggiore di n). Statisticamente,una permutazione di lunghezza k da D corrisponde a un campione ordinato di dimensionek estratto senza reinserimento.

Il numero di permutazioni

1. Usa la regola del prodotto per mostrare che il numero di permutazion i di lunghezzak da un insieme di n elementi è

(n)k = n(n - 1) ··· (n - k + 1)

2. Prova che il numero di permutazioni di lunghezza n dall'insieme D di n (cheprendono semplicemente il nome di permutazioni di D) è

n! = (n)n = n(n - 1) ··· (1)

3. Dimostra che

(n)k = n! / (n - k)!

4. In una corsa di 10 cavalli si registrano i primi tre arrivati, in ordine. Quanti esiti cisono?

5. Otto persone, formate da otto coppie sposate, si devono sedere in una fila di 8 sedie.Quante combinazioni possibili ci sono se:

Non ci sono restrizioni1.

Gli uomini devono sedere insieme e le donne devono sedere insieme2.

Gli uomini devono sedere insieme3.

Le moglie di ciascuna coppia devono sedere insieme4.

6. Supponi che n persone debbano sedersi attorno a una tavola rotanda. Mostra che cisono (n - 1)! combinazioni distinte. Suggerimento: il senso matematico di una tavolarotonda è che non c'è una prima sedia.

7. Dodici libri, di cui 5 sono di matematica, 4 di scienze e 3 di storia sono sistemati

Permutazioni

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb2.html (1 di 3) [22/11/2001 17.52.44]

Page 334: Laboratorio virtuale di probabilità e statistica

casualmente su una mensola.

Quanti esiti ci sono?1.

Trova la probabilità che i libri della stessa materia capitino assieme.2.

Trova la probabilità che i libri di matematica capitino assieme.3.

8. Il problema del compleanno. Supponi di scegliere a caso n persone e di registrare iloro compleanni.

Trova la probabilità che tutti i compleanni siano diversi.1.

Definisci le assunzioni che fai in (a).2.

Calcola esplicitamente la probabilità in (a) per n = 10, 20, 30 e 40.3.

9. Replica esperimento del compleanno 1000 volte per i seguenti valori di n. In ciascuncaso, confronta la frequenza relativa dell'evento in cui i compleanni sono distinti coivalori teorici dell'esercizio 8.

10. Supponi che ci siano 5 cacciatori di anatre, tutti ottimi tiratori. Passa uno stormo di10 anatre, e ogni caccitori sceglie a caso un'anatra e spara. Trova la probabilità chevengano uccise 5 anatre.

11. Prova che il numero di permutazioni delle carte di un mazzo standard è

52! = 8.0658 × 1068.

Il numero trovato nell'esercizio 10 è enorme. Infatti, se esegui l'esperimento di estrarretutte e 52 le carte di un mazzo ben mischiato, probabilmente genererai una sequenza maigenerata prima.

12. Supponi di posizionare casualmente 8 pedoni su una scacchiera. Prova che laprobabilità che nessun pedone possa mangiarne un altro è

8! 8! / (64)8.

13. Supponi di lanciare 5 dadi equilibrati. Trova la probabilità che tutti i punteggi sianodifferenti.

14. Il numero di una patente è formato da 2 lettere e 5 numeri. Trova la probabilità chelettere e numeri siano tutti differenti.

La formula di permutazione generalizzata

La formula per (n)k dell'esercizio 1 ha senso per ogni numero reale n e intero nonnegativo k. L'espressione risultante è detta formula di permutazione generalizzata.

15. Calcola

(-5)31.

(1 / 2)42.

Permutazioni

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb2.html (2 di 3) [22/11/2001 17.52.44]

Page 335: Laboratorio virtuale di probabilità e statistica

(-1 / 3)53.

Laboratorio virtuale > Calcolo combinatorio > 1 [2] 3 4 5Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Permutazioni

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb2.html (3 di 3) [22/11/2001 17.52.44]

Page 336: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Calcolo combinatorio > 1 2 3 [4] 5

4. Coefficienti multinomiali

In questo paragrafo, generalizzeremo la formula di conteggio che abbiamo studiato nelpargarfo precedente. Questa generalizzazione è utile per due tipi di problemi moltodifferenti (ma evidentemente equivalenti).

Partizioni di un insieme

Ricordiamo che il coefficiente binomiale C(n, j) è il numero di sottinsiemi di dimensione jdi un insieme S di n elementi. Notiamo inoltre che quando si selezione un sottinsieme Adi dimensione j da S, di fatto partizioniamo S in due sottinsiemi disgiunti di dimensione,rispettivamente, j e n - j, detti A e Ac.

Una generalizzazione naturale è partizionare S in un'unione di k sottinsiemia due a duedisgiunti

S1, S2, ..., Sk dove #(Si) = ni.

Ovviamente dobbiamo avere n1 + n2 + ··· + nk = n

1. Usa la regola del prodotto per mostrare che il numero di tali partizioni è

C(n, n1)C(n - n1, n2) ··· C(n - n1 - ··· - nk - 1, nk).

2. Prova che il risultato dell'esercizio 1 si semplifica a

C(n; n1, n2, ..., nk) = n! / (n1! n2! ··· nk!)

3. Riporta una dimostrazione algebrica e combinatoria per l'identità

C(n; k, n - k) = C(n, k).

4. Un giro di bridge consiste nel distribuire 13 carte (una mano di bridge) a 4 distintigiocatori da un mazzo standard di 52 carte. Mostra che il numero di giri di bridge è

53644737765488792839237440000 ~ 5.36 × 1028.

5. Supponi che un club di 20 membri voglia formare 3 comitati distnti, ciascuno conrispettivamente 6, 5 e 4 membri. In quanti modi si può farlo? Suggerimento: i membri chenon fanno parte di un comitato formano uno degli insiemi della partizione.

Sequenze

Consideriamo ora l'insieme T = {1, 2, ..., k }n. Gli elementi di questo insieme sonosequenze di lunghezza n in cui ciascuna coordinata è uno dei k valori. Quindi, questesequenze generalizzano le stringhe di bit di lunghezza n del paragrafo precedente. Di

Coefficienti multinomiali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb4.html (1 di 3) [22/11/2001 17.52.49]

Page 337: Laboratorio virtuale di probabilità e statistica

nuovo, siano n1, n2, ..., nk interi non negativi con

n1 + n2 + ··· + nk = n.

6. Costruisci una corrispondenza biunivoca tra le seguenti collezioni:

Partizioni di S in sottinsiemi a due a due disgiunti S1, S2, ..., Sk dove #(Si) = ni. perogni i.

1.

Sequenze in {1, 2, ..., k }n in cui i si verifica ni volte per ogni i.2.

Segue dagli esercizi 3 e 4 che il numero di sequenze in {1, 2, ..., k }n in cui i si verifica nivolte per ogni i è

C(n; n1, n2, ..., nk).

7. Supponi di avere n oggetti di k tipi differenti, con ni elementi del tipo i per ogni i.Inoltre, oggetti di un tipo dato sono considerati identici. Costruisci una corrispondenzabiunivoca tra le seguenti collezioni:

Sequenze in {1, 2, ..., k }n in cui i si verifica ni volte per ogni i.1.

Permutazioni distinguibili degli n oggetti.2.

8. Trova il numero di diverse combinazioni di lettere in ciascuna delle seguenti parole:

statistics1.

probability2.

mississippi3.

tennessee4.

alabama5.

9. Un bambino ha 12 dadi, 5 rossi, 4 verdi e 3 blu. In quanti modi si possono formarelinee di dadi (blocchi di colore uguali sono considerati identici):

Il teorema multinomiale

10. Dai una dimostrazione combinatoria del teorema multinomiale:

(x1 + ··· + xk)n = C(n; n1, n2, ..., nk)x1n1 x2

n2 ... xknk.

dove la sommatoria è per tutti gli (n1, ..., nk) tali che ni è un intero non negativo per ogni ie n1 + ··· + nk = n.

Per l'esercizio 10, i coefficienti C(n; n1, n2, ..., nk) sono detti coefficienti multinomiali.

11. Prova che ci sono C(n + k - 1, k - 1) termini nell'espansione multinomialedell'esercizio 10.

Coefficienti multinomiali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb4.html (2 di 3) [22/11/2001 17.52.49]

Page 338: Laboratorio virtuale di probabilità e statistica

12. Trova il coefficiente di x3y7z5 in (x + y + z)15.

Laboratorio virtuale > Calcolo combinatorio > 1 2 3 [4] 5Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Coefficienti multinomiali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb4.html (3 di 3) [22/11/2001 17.52.49]

Page 339: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Calcolo combinatorio > 1 2 3 4 [5]

5. Note conclusive

Il calcolo combinatorio è un argomento matematico ricco e interessante in sé, non solo peril suo legame con la probabilità.

Libri

Applied Combinatorics, di Fred Roberts●

Applied Combinatorics, di Alan Tucker●

An Introduction to Probability and Its Applications, di William Feller●

Risposte agli esercizi del paragrafo 1

1.9.

676000001.

1 / 322.

1.10.

16796161.

264 / 364 ~ 0.27212.

1.11

21 carte1.

324 esiti2.

La mano migliore sarebbe formata dalle 5 armi restanti o dai 5 sospettati restanti.3.

1.13.

6241.

1 / 162.

1.15.

77761.

1 / 362.

1.16.

419690022431988051660156251.

0.1953 × 10-10.2.

1.20.

10241.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb5.html (1 di 4) [22/11/2001 17.52.55]

Page 340: Laboratorio virtuale di probabilità e statistica

1 / 82.

1.21. 1048576

1.22.

1261.

21 / 128.2.

1.31. 1 / 2k.

Risposte agli esercizi del paragrafo 2

2.4. 720

2.5.

403201.

11522.

28803.

3844.

2.7.

4790016001.

1036802.

2.8. Sia pn l'evento in cui i compleanni delle n persone sono distinti.

pn = (365)n / 365n.1.

Assumiamo che i compleanni siano distribuiti uniformemente su tutto l'anno.2.

p10 = 0.8831, p20 = 0.5886, p30 = 0.2937, p40 = 0.1088.3.

2.10. 189 / 624

2.13. 5 / 54.

2.14. 189 / 650.

2.15.

-2101.

-15 / 162.

-3640 / 2433.

Risposte agli esercizi del paragrafo 3

3.4.

3744 / 2598960 = 0.001441.2.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb5.html (2 di 4) [22/11/2001 17.52.55]

Page 341: Laboratorio virtuale di probabilità e statistica

624 / 2598860 = 0.000240.3.

3.5.

0.238608.b.

0.0741397c.

0.017959d.

3.7.

387601.

138602.

308003.

3.8. 1913496

3.9.

1.41662 × 10-7.2.

3.15.

210 / 1024.1.

56 / 1024.2.

3.16. 6160 / 15504 = 0.297317.

3.23. 108864

3.24. 71680

3.29. 364

3.32.

17711.

9692.

3.33. 252

3.34.

661.

362.

3.35.

Con reinserimento, ordinate: 100001.

Con reinserimento, non ordinate: 7152.

Senza reinserimento, ordinate: 50403.

Senza reinserimento, non ordinate: 2104.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb5.html (3 di 4) [22/11/2001 17.52.55]

Page 342: Laboratorio virtuale di probabilità e statistica

3.36.

1 / 16.1.

702.

-91 / 729.3.

Risposte agli esercizi del paragrafo 4

4.5. 9777287520

4.8.

504001.

99792002.

346503.

37804.

2105.

4.9. 27720

4.12. 360360

Laboratorio virtuale > Calcolo combinatorio > 1 2 3 4 [5]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/comb/comb5.html (4 di 4) [22/11/2001 17.52.55]

Page 343: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli di campionamento finito > 1 2 3 4 5 6 [7] 8 9 10

7. Il problema del compleanno

Analogamente al modello di campionamento semplice, supponiamo di selezionare nnumeri a caso, con reinserimento, dalla popolazione D = {1, 2, ..., N}:

X = (X1, X2, ..., Xn).

Ricordiamo che l'assunzione di base è che X sia distribuita uniformemente su

S = {1, 2, ..., N}n.

Il problema del compleanno consiste nel calcolare la probabilità dell'evento che ci siaalmeno un valore doppio nel campione:

BN, n = {Xi = Xj per almeno una coppia distinta di indici i, j}.

Supponi di scegliere a caso n persone e registrare i loro compleanni. Se ignoriamo gli annibisestili e assumiamo che i compleanni siano distribuiti uniformemente sull'anno, allorapossiamo applicare il modello di campionamento con N = 365. In questo contesto, ilproblema del compleanno consiste nel calcolare la probabilità che almeno due personeabbiano lo stesso compleanno (di qui il nome del problema).

La soluzione generale al problema del compleanno è un semplice esercizio di calcolocombinatorio.

1. Usa la regola del prodotto del calcolo combinatorio per mostrare che

P(BN, n) = 1 - (N)n / Nn se n N.1.

P(BN, n) = 1 se n > N.2.

Suggerimento: L'evento complementare si verifica se e solo se il vettore degli esiti Xforma una permutazione di dimensione n da {1, 2, ..., N}

Il fatto che la probabilità sia 1 per n > N è detto a volte principio della piccionaia: se piùdi N piccioni si posizionano in N caselle, allora almeno una casella ospita più di unpiccione.

2. Sia N = 365 (problema del compleanno standard). Mostra che la probabilità è

0.117 per n = 101.

0.411 per n = 202.

0.706 per n = 303.

0.891 per n = 404.

0.970 per n = 505.

0.994 per n = 606.

Il problema del compleanno

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn7.html (1 di 3) [22/11/2001 17.53.00]

Page 344: Laboratorio virtuale di probabilità e statistica

3. Disegna il grafico dei valori dell'esercizio 2 in funzione di n. Se smussa (perapparire in maniera più chiara), la curva dovrebbe somigliare al grafico sottostante.

4. Nell'esperimento del compleanno, poni N = 365. Per n = 10, 20, 30, 40, 50 e 60simula 1000 replicazioni per ciascun caso, calcolando la frequenza relativa dell'evento incui qualche cella contiene 2 o più palline. Confronta la frequenza relativa con leprobabilità calcolate nell'esercizio 4.

Nonostante la sua semplice soluzione, il problema del compleanno è molto noto perché,numericamente, le probabilità possono sembrare sorprendenti. Per solo 60 persone,l'evento è quasi certo! Matematicamente, la crescita rapida delle probabilità al crescere din, è dovuta al fatto che Nn cresce più velocemente di (N)n.

5. Si scelgono a caso 10 persone. Trova la probabilità che almeno due siano nati nellastessa settimana.

6. Nell'esperimento del compleanno, poni N = 52. Modifica n con la barra ascorrimento e osserva graficamente come le probabilità cambiano. Con n = 10, simula1000 replicazioni, aggiornando ogni 10. Osserva la convergenza della frequenza relativaalla probabilità teorica.

7. Si lanciano quattro dadi equilibrati. Trova la probabilità che i punteggi sianodistinti.

8. Nell'esperimento del compleanno, poni N = 6. Modifica n con la barra a scorrimentoe osserva graficamente come le probabilità cambiano. Con n = 10, simula 1000replicazioni, aggiornando ogni 10. Osserva la convergenza della frequenza relativa alla

Il problema del compleanno

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn7.html (2 di 3) [22/11/2001 17.53.00]

Page 345: Laboratorio virtuale di probabilità e statistica

probabilità teorica.

9. Si scelgono a caso 5 persone. Trova la probabilità che almeno due siano nate nellostesso mese.

10. Nell'esperimento del compleanno, poni N = 12. Modifica n con la barra ascorrimento e osserva graficamente come le probabilità cambiano. Con n = 10, simula1000 replicazioni, aggiornando ogni 10. Osserva la convergenza della frequenza relativaalla probabilità teorica.

11. Un fast-food distribuisce 10 pupazzi diversi insieme ai menu per bambini. Unafamiglia con cinque bambini compra 5 menu. Trova la probabilità che i pupazzi siano tuttidiversi.

12. Nell'esperimento del compleanno, poni N = 5. Modifica n con la barra ascorrimento e osserva graficamente come le probabilità cambiano. Con n = 5, simula 1000replicazioni, aggiornando ogni 10. Osserva la convergenza della frequenza relativa allaprobabilità teorica.

Ricorrenza

13. Sia bN,n la probabilità dell'evento complementare che le variabili campionariesiano distinte. Prova le seguente relazione ricorsiva in due modi: in primo luogo partendodal risultato dell'esercizio 1, e poi utilizzando la probabilità condizionata.

bN, 1 = 11.

bN, n+1 = [(N - n) / N]bN, n per n = 1, 2, ..., N - 1.2.

14. Sia N = 52 (corrispondenti alle settimane di nascita). Trova il valore più piccolo din per cui la probabilità di duplicazione è almeno 1/2.

15. Esegui l'esperimento del compleanno 1000 volte, con N = 52 e col valore di nricavato nell'esercizio 14. Confronta la frequenza relativa della duplicazione col valore diprobabilità.

Laboratorio virtuale > Modelli di campionamento finito > 1 2 3 4 5 6 [7] 8 9 10Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Il problema del compleanno

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn7.html (3 di 3) [22/11/2001 17.53.00]

Page 346: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Giochi di fortuna > 1 [2] 3 4 5 6 7 8

2. Poker

La mano di poker

Un mazzo di carte ha la struttura naturale di un insieme prodotto e può quindi essererappresentato matematicamente da

D = {1, 2, ..., 13} × {0, 1, 2, 3}

dove la prima coordinata rappresenta il tipo (asso, 2-10, jack, regina, re) e la secondacoordinata il seme (picche, quadri, fiori, cuori).

Ci sono molti modi diversi di giocare a poker, ma ci interessiamo solo al poker a pescata,che consiste nel pescare a caso 5 carte dal mazzo D. L'ordine delle carte non è rilevante,per cui registriamo l'esito dell'esprimento casuale come l'insieme (mano)

X = {X1, X2, X3, X4, X5} dove Xi = (Yi, Zi) appartiene a D per ogni i e Xi Xj per ognii e j.

Quindi lo spazio campionario è formato da tutte le possibili mani di poker:

S = {{x1, x2, x3, x4, x5}: xi in D per ogni i e xi xj per ogni i e j}.

L'assunzione di base per la creazione del modello è che tutte le mani abbiano ugualeprobabilità. La variabile casuale X è quindi uniformemente distribuita sull'insieme di tuttele possibili mani S.

P(X in A) = #(A) / #(S) per A S.

In terimini statistici, una mano di poker è un campione casuale di dimensione 5 estrattosenza reinserimento e senza attenzione all'ordine dalla popolazione D. Per ulterioriapprofondimenti su questo argomento, vedi il capitolo sui modelli di campionamentofinito.

Il valore della mano

Esistono nove tipi differenti di mani di poker in termini di valore. Useremo numeri da 0 a8 per indicare il valore della mano, dove 0 è il valore minimo (ovvero nessun valore) e 8 èil valore massimo. Il valore della mano V è pertanto una variabile aleatoria che assumevalori da 0 a 8 ed è definita come segue:

V = 0: Nulla. La mano non è di nessuno degli altri casi.●

V = 1: Coppia. Ci sono quattro diversi tipi di carta nella mano, una si presenta duevolte e le altre una volta.

V = 2: Doppia coppia. Ci sono tre diversi tipi di carta nella mano; due si presentano●

Poker

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games2.html (1 di 3) [22/11/2001 17.53.05]

Page 347: Laboratorio virtuale di probabilità e statistica

due volte e l'altra una volta.

V = 3: Tris. Ci sono tre diversi tipi di carta, una si presenta tre volte e le altre dueuna volta.

V = 4: Scala. I tipi di carta possono essere ordinati in sequenza ma non sono dellostesso seme. Un asso può essere considerato il tipo di minore o di maggior valore.

V = 5: Colore. Le carte sono tutte dello stesso seme, ma i tipi non possono formareuna sequenza.

V = 6: Full. Ci sono due diversi tipi di carta; uno si presenta tre volte e l'altro duevolte.

V = 7: Poker. Ci sono due diversi tipi di carta; uno si presenta quattro volte e l'altrouna volta.

V = 8: Scala colore. Le carte sono tutte dello stesso seme e possono essere ordinatein seuqenza.

1. Esegui l'esperimento del poker 10 volte passo per passo. Per ciascuno degli esiti,nota il valore della variabile casuale che corrisponde al tipo di mano, come riportatosopra.

La funzione di densità

Il calcolo della funzione di densità per V è un buon esercizio di calcolo combinatorio.

2. Mostra che il numero di mani di poker distinte è #(S) = C(52, 5) = 2598960.

Negli esercizi seguenti dovrai spesso utilizzare la regola del prodotto del calcolocombinatorio per contare il numero di mani di vari tipi. In ciascun caso, prova a costruireun algoritmo per generare le mani di poker di un certo tipo, e conta il numero di modi incui puoi eseguire ciascun passo dell'algoritmo.

4. Mostra che P(V = 1) = 1098240 / 2598960 = 0.422569.

5. Mostra che P(V = 2) = 123552 / 2598960 = 0.047539.

6. Mostra che P(V = 3) = 54912 / 2598960 = 0.021129.

7. Mostra che P(V = 8) = 40 / 2598960 = 0.000015.

8. Mostra che P(V = 4) = 10200 / 2598960 = 0.003925. Suggerimento: Usa il risultatodell'esercizio 7.

9. Mostra che P(V = 5) = 5108 / 2598960 = 0.001965. Suggerimento: Usa il risultatodell'esercizio 7.

10. Mostra che P(V = 6) = 3744 / 2598960 = 0.001441.

11. Mostra che P(V = 7) = 624 / 2598960 = 0.000240.

Poker

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games2.html (2 di 3) [22/11/2001 17.53.05]

Page 348: Laboratorio virtuale di probabilità e statistica

12. Mostra che P(V = 0) = 1,302,540 / 2598960 = 0.501177. Suggerimento: Usa laregola additiva della probabilità e il risultato dell'esercizio precedente.

Notiamo che la funzione di densità di V è decrescente; più vale una mano, meno èprobabile che esca. Nota inoltre che le mani nulla e coppia costituiscono più del 92% deicasi.

13. Nell'applet poker, osserva la forma del grafico della densità. Nota che alcune delleprobabilità sono così piccole che sono praticamente invisibili nel grafico. Esegui 1000replicazioni dell'esperimento, aggiornando ogni 10 e osserva la convergenza dellefrequenze relative alla funzione di densità.

14. Nell'applet poker, poni la frequenza di aggiornamento a 100 e imponi un criteriod'arresto sulla base dei valori di V riportati qui sotto. Nota il numero di mani necessarie.

V = 31.

V = 42.

V = 53.

V = 64.

V = 75.

V = 86.

15. Trova la probabilità che una mano sia tris o più.

16. Nel film Genitori in trappola (1998), entrambi i gemelli fanno scala colore allostesso giro di poker. Trova la probabilità di tale evento.

17. Classifica V in termini di livello di misura: nominale, ordinale, intervallare, o arapporto. Ha qualche significato il valore atteso di V?

Laboratorio virtuale > Giochi di fortuna > 1 [2] 3 4 5 6 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Poker

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games2.html (3 di 3) [22/11/2001 17.53.05]

Page 349: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli speciali > A B C [D] E F G H

D. Giochi di fortuna

Sommario

Introduzione1.

Poker2.

Poker di dadi e Chuck-a-Luck3.

Craps4.

Roulette5.

Il problema di Monty Hall6.

Lotterie7.

Note conclusive8.

Applets

Poker●

Poker di dadi●

Chuck-a-Luck●

Craps●

Roulette●

Gioco di Monty Hall●

Esperimento di Monty Hall●

Citazioni

"È un gioco di fortuna?" ... "Non come lo gioco io, no." Risposta di WC Fields auna domanda di una delle sue numerose vittime.

Più semplice è un gioco, maggiore è il vantaggio del banco. The Wizard of Odds.●

Laboratorio virtuale > Modelli speciali > A B C [D] E F G HSommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Giochi di fortuna

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/index.html [22/11/2001 17.53.07]

Page 350: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Giochi di fortuna > 1 2 3 4 5 6 [7] 8

7. Lotterie

Le lotterie sono tra i giochi di fortuna più semplici e più diffusi, e, sfortunatamente per ilgiocatore, tra i peggiori in termini di valore atteso. Esistono innumerevoli forme di lotteriaed è inutile analizzarle una per una. In questo paragrafo ne studieremo i tipi più diffusi.

La lotteria semplice

La lotteria semplice è un esperimento casuale in cui il banco (in molti casi gestito daun'ente governativo) estrae n numeri a caso e senza reinserimento tra gli interi 1, 2, ..., N.I parametri interi N e n variano da lotteria a lotteria, e ovviamente n non può esseremaggiore di N. L'ordine in cui i numeri sono estratti di solito non è rilevante, e quindi, inquesto caso, lo spazio campionario S dell'esperimento è formato da tutti i sottinsiemi(combinazioni) di dimensione n estratti dalla popolazione {1, 2, ..., N}:

S = {x {1, 2, ..., N}: #(x) = n}.

1. Ricorda, o mostra, che #(S) = C(N, n) = N! / [n!(N - n)!].

Naturalmente si assume che tutte le combinazioni di questo tipo siano equiprobabili, percui la combinazione estratta X, variabile casuale di base per l'esperimento, è distribuitauniformemente su S.

P(X = x) per 1 / C(N, n) per x appartenente a S.

Il giocatore della lotteria paga un biglietto e deve scegliere m numeri, senza ripetizione,tra gli interi da 1 a N. Anche in questo caso, l'ordine non è rilevante, per cui il giocatorefondamentalemnte sceglie una combinazione y di dimensione m dalla popolazione {1, 2,..., N}. In molti casi m = n, per cui il giocatore sceglie lo stesso numero di numeri che poiil banco estrae. In generale, quindi, ci sono tre parametri nella lotteria semplice N, n, m.

L'obiettivo del giocatore, ovviamente, consiste nel massimizzare il numero dicorrispondenze (spesso dette catches dai giocatori) tra la sua combinazione y e lacombinazione casuale X estratta dal banco. Essenzialmente, il giocatore cerca diindovinare l'esito dell'esperimento casuale prima che venga eseguito. Sia quindi U ilnumero di concordanze.

2. Prova che il numero di concordanze U nella lotteria N, n, m ha funzione di densitàdi probabilità discreta

P(U = k) = C(m, k) C(N - m, n - k) / C(N, n) for k = 0, 1, ..., m.

La distribuzione di U è ipergeometrica con parametri N, n e m, ed è analizzata in dettaglionel capitolo sui modelli di campionamento finito. In particolare, si ricava che media evarianza del numero di concordanze U è

Lotterie

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games7.html (1 di 6) [22/11/2001 17.53.17]

Page 351: Laboratorio virtuale di probabilità e statistica

E(U) = n (m / N), var(U) = n (m / N) (1 - m / N) (N - n) / (N - 1).

Notiamo che P(U = k) è 0 k > n o k < n + m - N. In ogni caso, nella maggior parte delle

lotterie, m n e N è molto maggiore di n + m. In questi casi, la funzione di densità èpositiva per i valori di k riportati nell'esercizio 2.

Indicheremo il caso particolare in cui m = n lotteria N, n; la maggior parte delle lotteriepubbliche funzionano in questo modo. In questo caso, funzione di densità di probabilità,media e varianza del numero di concordanze U è

P(U = k) = C(n, k) C(N - n, n - k) / C(N, n) per k = 0, 1, ..., n.

E(U) = n2 / N, var(U) = (n2 / N)(N - n)2 / [N(N - 1)].

3. Trova esplicitamente funzione di densità di probabilità, media e deviazionestandard del numero di concordanze in una lotteria 47, 5.

4.Trova esplicitamente funzione di densità di probabilità, media e deviazione standarddel numero di concordanze in una lotteria 49, 5.

5. Trova esplicitamente funzione di densità di probabilità, media e deviazionestandard del numero di concordanze in una lotteria 47, 7.

L'analisi precedente si è basata sull'assunzione che la combinazione y sia selezionata dalgiocatore in maniera deterministica. Fa differenza se la combinazione viene scelta a caso?Supponiamo che la combinazione selezionata Y sia una variabile casuale a valori in S.(Per esempio, in alcune lotterie i giocatori acquistano biglietti con combinazioniselezionate a caso da un computer; si parla in questo caso di Quick Pick). Ovviamente, Xe Y devono essere indipendenti, poiché né il giocatore né il computer deveono potersapere la combinazione vincente X. Negli esercizi seguenti, mostrerai che lacasualizzazione non ha influenza.

6. Sia U il numero di concordanze nella lotteria N, n, m nel caso in cui lacombinazione Y scelta dal giocatore è una variabile casuale, indipendente dallacombinazione vincente X. Prova che U ha la stessa distribuzione trovata nell'esercizio 1.Suggerimento: condiziona al valore di Y.

Ci sono molti siti internet che pubblicano dati sulla frequenza dei numeri estratti in varielotterie. Alcuni giocatori ritengono che alcuni numeri siano più fortunati di altri.

7. Date le assunzioni e l'analisi precedenet, credi che alcuni numeri siano più fortunatidi altri. Ha un qualche senso teorico studiare i dati storici di una lotteria?

Il montepremi in palio nelle lotterie di stato dipende dal numero di biglietti venduti. Ingenere, il 50% dell'incasso è messo in palio, il resto va in costi amministrativi e incassoper lo stato. Il montepremi viene diviso tra i biglietti vincenti, e il premio per ciascunbiglietto dipende dal numero di concordanze U. Per queste ragioni, è impossibilepervenire a un'analisi semplice del valore atteso di una lotteria. Notiamo però che, poichélo stato si tiene una percentuale fissa sulle vendite, non è esposto ad alcun rischio.

Lotterie

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games7.html (2 di 6) [22/11/2001 17.53.17]

Page 352: Laboratorio virtuale di probabilità e statistica

Da un punto di vista del gioco, le lotterie non sono buoni giochi. In confronto, nellamaggior parte dei giochi da casinò, il 90% o più delle puntate va a formare il montepremi.Ovviamente le lotterie di stato possono essere viste come una forma di tassazionevolontaria e non come semplici giochi. I profitti fatti con le lotterie vengono impiegati peristruzione, sanità e altri servizi di pubblico interesse. Tuttavia, un'analisi dei benefici e deicosti delle lotterie dal punto di vista politico e sociale (e non in semplice otticamatematica) va oltre gli scopi di questo lavoro.

Numeri Jolly

Molti lottrie di stato arricchiscono il formato N, n con un numero Jolly. Il numero Jolly Tè estratto da un insieme specifico di interi, in addizione alla combinazione X, cheabbiamo visto prima. Ugualmente, il giocatore sceglie un numero Jolly s, in addizione allacombinazione y. La vittoria del giocatore dipende quindi dal numero di concordanze U traX e y, come già visto, e in più dal fatto che il numero Jolly del giocatore s concordi colnumero Jolly T estratto dal banco. Sia I la variabile indicatore di quest'ultimo evento.Siamo ora interessati alla distribuzione congiunta di (I, U).

In un caso comune, il numero Jolly T è scelto a caso tra gli interi 1, 2, ..., M,indipendentemente dalla combinazione X di dimensione n estratta da 1, 2, ..., N. Di solitoM < N. Notiamo che, in questo tipo di lotteria, il gioco è formato da due lotterieindipendenti, una di formato N, n, e l'altra di formato M, 1.

8. Calcola esplicitamente la densità congiunta di (I, U) per la lotteria 47, 5 con numeriJolly indipendenti da 1 a 27. Tale schema è utilizzato, tra l'altro, nella lotteria dellaCalifornia.

9. Calcola esplicitamente la densità congiunta di (I, U) per la lotteria 49, 5 con numeriJolly indipendenti da 1 a 42. Tale schema è utilizzato, tra l'altro, nella lotteria Powerball.

In altri casi, il numero Jolly T è estratto tra 1 e N, ed è distinto dai numeri dellacombinazione X. Per modellare tale situazione, assumiamo che T sia distribuitauniformemente su {1, 2, ..., N}, e dato T = t, X sia distribuito uniformemente sull'insiemedi combinazione di dimensione n estratte da {1, 2, ..., N}- {t}. In questo caso, la densitàcongiunta è più difficile da calcolare.

10. Prova che

P(I = 1, U = k) = C(n, k) C(N -1 - n, n - k) / [N C(N - 1, n)] per k = 0, 1, ..., n.

11. Condiziona al fatto che T appartenga o no a {y1, ..., yn} per mostrare che

P(I = 0, U = k) = (N - n + 1) C(n, k) C(N -1 - n, n - k) / [N C(N - 1, n)]

+ n C(n - 1, k) C(N - n, n - k) / [N C(N - 1, n)] per k = 0, 1, ..., n.

12. Calcola esplicitamente la densità congiunta di (I, U) per la lotteria 47, 7 col numeroJolly estratto in questo modo. Tale schema è utilizzato dalla lotteria Super 7 Canada, tra le

Lotterie

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games7.html (3 di 6) [22/11/2001 17.53.17]

Page 353: Laboratorio virtuale di probabilità e statistica

altre.

Keno

Keno è una lotteria che si gioca nei casinò. Per dati N (di solito 80) e n (di solito 20), ilgiocatore può scegliere una serie di giochi N, n, m, come presentato poc'anzi. Di solito, mvaria da 1 a 15, e la vincita dipende da m e dal numero di concordanze V. Vediamo oracome calcolare funzione di densità, media e deviazione standard della vincita casuale,basandoti su una puntata unitaria, per una lotteria Keno tipica (N = 80, n = 20 e m da 1 a15). Le tavole di vincita sono adattate dai dati presentati in The Wizard of Odds, e sonobasati sulla lotteria Keno al casinò Tropicana di Atlantic City, New Jersey.

Ricorda che la funzione di densità di probabilità del numero di concordanze U,dall'esercizio 2, è data da

P(U = k) = C(m, k) C(80 - m, 20 - k) / C(80, 20) per k = 0, 1, ..., m.

13. La tavola di vincite per m = 1 è riportata qui sotto. Calcola funzione di densità,media e deviazione standard della vincita.

m = 1Indovinati 0 1

Vincita 0 3

14. La tavola di vincite per m = 2 è riportata qui sotto. Calcola funzione di densità,media e deviazione standard della vincita.

m = 2Indovinati 0 1 2

Vincita 0 0 12

15. La tavola di vincita per m = 3 è riportata qui sotto. Calcola funzione di densità,media e deviazione standard della vincita.

m = 3Indovinati 0 1 2 3

Vincita 0 0 1 43

16. La tavola di vincite per m = 4 è riportata qui sotto. Calcola funzione di densità,media e deviazione standard della vincita.

m = 4Indovinati 0 1 2 3 4

Vincita 0 0 1 3 130

17. La tavola di vincite per m = 5 è riportata qui sotto. Calcola funzione di densità,media e deviazione standard della vincita.

m = 5

Lotterie

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games7.html (4 di 6) [22/11/2001 17.53.17]

Page 354: Laboratorio virtuale di probabilità e statistica

Indovinati 0 1 2 3 4 5Vincita 0 0 0 1 10 800

18. La tavola di vincite per m = 6 è riportata qui sotto. Calcola funzione di densità,media e deviazione standard della vincita.

m = 6Indovinati 0 1 2 3 4 5 6

Vincita 0 0 0 1 4 95 1500

19. La tavola di vincite per m = 7 è riportata qui sotto. Calcola funzione di densità,media e deviazione standard della vincita.

m = 7Indovinati 0 1 2 3 4 5 6 7

Vincita 0 0 0 0 1 25 350 8000

20. La tavola di vincite per m = 8 è riportata qui sotto. Calcola funzione di densità,media e deviazione standard della vincita.

m = 8Indovinati 0 1 2 3 4 5 6 7 8

Vincita 0 0 0 0 0 9 90 1500 25,000

21. La tavola di vincite per m = 9 è riportata qui sotto. Calcola funzione di densità,media e deviazione standard della vincita.

m = 9Indovinati 0 1 2 3 4 5 6 7 8 9

Vincita 0 0 0 0 0 4 50 280 4000 50,000

22. La tavola di vincite per m = 10 è riportata qui sotto. Calcola funzione di densità,media e deviazione standard della vincita.

m = 10Indovinati 0 1 2 3 4 5 6 7 8 9 10

Vincita 0 0 0 0 0 1 22 150 1000 5000 100000

23. La tavola di vincite per m = 11 è riportata qui sotto. Calcola funzione di densità,media e deviazione standard della vincita.

m = 11Indovinati 0 1 2 3 4 5 6 7 8 9 10 11

Vincita 0 0 0 0 0 0 8 80 400 2500 25000 100000

24. La tavola di vincite per m = 12 è riportata qui sotto. Calcola funzione di densità,media e deviazione standard della vincita.

m = 12

Lotterie

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games7.html (5 di 6) [22/11/2001 17.53.17]

Page 355: Laboratorio virtuale di probabilità e statistica

Indovinati 0 1 2 3 4 5 6 7 8 9 10 11 12Vincita 0 0 0 0 0 0 5 32 200 1000 5000 25000 100000

25. La tavola di vincite per m = 13 è riportata qui sotto. Calcola funzione di densità,media e deviazione standard della vincita.

m = 13Indovinati 0 1 2 3 4 5 6 7 8 9 10 11 12 13

Vincita 1 0 0 0 0 0 1 20 80 600 3500 10000 50000 100000

26. La tavola di vincite per m = 14 è riportata qui sotto. Calcola funzione di densità,media e deviazione standard della vincita.

m = 14Indovinati 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14

Vincita 1 0 0 0 0 0 1 9 42 310 1100 8000 25000 50000 100000

27. La tavola di vincite per m = 15 è riportata qui sotto. Calcola funzione di densità,media e deviazione standard della vincita.

m = 15Indovinati 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Vincita 1 0 0 0 0 0 0 10 25 100 300 2800 25000 50000 100000 100000

Dagli esercizi precedenti dovresti aver notato che la vincita attesa di una puntata unitariavaria tra 0.71 a 0.75 circa, per cui il profitto atteso (per il giocatore) varia tra -0.25 e -0.29.Ciò è abbastanza poco pere un gioco da casinò, ma al solito la possibilità di una vincitamolto alta con una puntata molto bassa copre l'analisi del valore atteso per molti giocatori.

28. Con m = 15, mostra che i 4 premi più alti (25000, 50000, 100000, 100000)contribuiscono solo allo 0.017 (meno di 2 centesimi) al valore atteso complessivo di circa0.714.

D'altro canto, la deviazione standard della vincita varia di parecchio, da 1 a circa 55.

29. Anche se il gioco è altamente sfavorevole per ogni m, con valore attesopraticamente costante, cosa pensi che sia meglio per il giocatore: uno schema condevizione standard alta o bassa?

Laboratorio virtuale > Giochi di fortuna > 1 2 3 4 5 6 [7] 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Lotterie

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games7.html (6 di 6) [22/11/2001 17.53.17]

Page 356: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli di campionamento finito > 1 2 3 4 [5] 6 7 8 9 10

5. Statistiche d'ordine

Supponiamo che le unità della popolazione siano numerate da 1 a N, dimodoché D = {1,2, ..., N}. Per esempio, la popolazione può essere formata da manufatti, e la numerazionepuò corrispondere ai numeri di serie. Campioniamo n unità a caso e senza reinserimentoda D:

X = (X1, X2, ..., Xn), dove Xi appartenente a D è l'i-esima unità estratta.

Ricordiamo che X è distribuita uniformemente sull'insieme delle permutazioni didimensione n estratte da D. Ricordiamo inoltre che W = {X1, X2, ..., Xn} è il campionenon ordinato, distribuito uniformemente sull'insieme delle combinazioni di dimensione nestratto da D.

Per i = 1, 2, ..., n, sia X(i) l'i-esima unità minore di X1, X2, ..., Xn. La variabile casuale X(i)è detta i-esima statistica d'ordine del campione. Notiamo in particolare che X(1) è ilminimo valore e X(n) il massimo.

1. Mostra che X(i) assume valori i, i + 1, ..., N - n + i.

Indicheremo il vettore di statistiche d'ordine con

U = (X(1), X(2), ..., X(n)).

Notiamo che U assume valori in L = {(x1, x2, ..., xn): 1 x1 < x2 < ··· < xn N}

2. Esegui l'esperimento delle statistiche d'ordine. Nota che puoi modificare l'ampiezzadella popolazione N e l'ampiezza del campione n. Le statistiche d'ordine sono registrate adogni aggiornamento.

Distribuzioni

3. Mostra che L ha C(N, n) elementi e che U è distribuita uniformemente su L.Suggerimento: U = (x1, x2, ..., xn) se e solo se W = {x1, x2, ..., xn} se e solo se X è unadelle n! permutazioni di (x1, x2, ..., xn).

4. Usa una prova di calcolo combinatorio per mostrare che la funzione di densità diX(i) è:

P(X(i) = k) = C(k - 1, i - 1)C(N - k, n - i) / C(N, n) per k = i, i + 1, ..., N - n + i.

5. Nell'esperimento delle statistiche d'ordine, modifica i parametri e osserva la formadella funzione di densità. Con N = 30, n = 10 e i = 5, simula 1000 replicazioni,

Statistiche d'ordine

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn5.html (1 di 4) [22/11/2001 17.53.25]

Page 357: Laboratorio virtuale di probabilità e statistica

aggiornando ogni 10. Osserva la convergenza delle densità empiriche alla funzione didensità teorica.

Momenti

La funzione di densità dell'esercizio 4 può essere utilizzata per ricavare un'interessanteidentità che riguarda i coefficienti binomiali. Tale identità può essere utilizzata per trovaremedia e varianza di X(i) .

5. Mostra che per ogni i = 1, 2, ..., N,

k = i, ..., N - n + i C(k, i) C(N - k, n - i) = C(N + 1, n + 1).

6. Usa l'identità dell'esercizio 5 per mostrare che

E(X(i)) = i (N + 1) / (n + 1).

7. Usa l'identità dell'esercizio 5 per mostrare che

var(X(i)) = (N + 1)(N - n)i(n + 1 - i) / [(n + 1)2(n + 2)].

8. Nell'esperimento delle statistiche d'ordine, modifica i parametri e osserva ladimensione e la posizione della barra media/deviazione standard. Con N = 30, n = 10 e i =5, simula 1000 replicazioni, aggiornando ogni 10. Osserva la convergenza dei momentiempirici ai loro valori teorici.

10. Supponi che, in una lotteria, si mettano biglietti numerati da 1 a 25 in un'urna. Siestraggono a caso e senza reinserimento cinque biglietti. Calcola

La funzione di densità di X(3).1.

E(X(3)).2.

var(X(3)).3.

Stimatori

11. Usa il risultato dell'esercizio 6 per mostra che, per i = 1, 2, ..., n, la statisticaseguente è uno stimatore corretto per N:

Wi = [(n + 1) X(i) / i] - 1.

Poiché Wi è corretto, la sua varianza è l'errore quadratico medio, una misura della qualitàdello stimatore.

12. Prova che var(Wi) = (N + 1)(N - n)(n + 1 - i) / [i(n + 2)]

13. Mostra che, per dati N e n, var(Wi) decresce al crescere di i.

Statistiche d'ordine

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn5.html (2 di 4) [22/11/2001 17.53.25]

Page 358: Laboratorio virtuale di probabilità e statistica

Pertanto gli stimatori migliorano al crescere di i; in particolare, Wn è il migliore e W1 ilpeggiore.

14. Mostra che var(Wj) / var(Wi) = j(n + 1 - i) / [i(n + 1 - j)]

Tale rapporto è detto efficienza relativa di Wi rispetto a Wj.

Di solito si spera che gli stimatori migliorino (secondo il criterio dell'errore quadraticomedio) al crescere della dimensione campionaria n (più informazioni si hanno, migliore cisi aspetta che sia la stima). Tale proprietà è detta consistenza.

15. Mostra che var(Wn) tende a 0 per n che tende a N.

16. Mostra che, per dato i, var(Wi) prima cresce e poi decresce a 0 all'aumentare di nda 1 a N.

Il grafico seguente, dovuto a Christine Nickel, mostra var(W1) in funzione di n per N =50, 75 e 100.

Lo stimatore Wn venne usato dagli alleati durante la seconda guerra mondiale per stimareil numero N di carri armati tedeschi prodotti. I carri armati avevano un numero di serie, e icarri catturati e i loro numeri seriali formavano i dati campionari. Seguendo RichardLarsen e Morris Marx, tale stima della produzione di carri nel 1942 fu 3400, molto vicinaal numero reale.

17. Supponi che, in una guerra, vengano catturati 100 carri nemici. Il numero seriale

Statistiche d'ordine

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn5.html (3 di 4) [22/11/2001 17.53.25]

Page 359: Laboratorio virtuale di probabilità e statistica

più elevato è 1423. Stima il numero totale di carri prodotti.

18. Nell'esperimento delle statistiche d'ordine, poni N = 100 e n = 10. Simula 50replicazioni, aggiornando ogni volta. Per ciascuna replicazione, calcola la stima di Nbasandoti su ciascuna delle statistiche d'ordine. Per ciascuno stimatore, calcola la radicequadrata della media dei quadrati degli errori per le 50 replicazioni. Basandoti su talistime empiriche dell'errore, disponi gli stimatori di N in ordine di qualità.

19. Supponi che, in una guerra, vengano catturati 100 carri nemici. Il numero serialepiù basso è 23. Stima il numero totale di carri prodotti.

Estrazioni con reinserimento

Se il campionamento è con reinserimento, le variabili del campione X1, X2, ..., Xn sonoindipendenti e identicamente distribuite. Le statistiche d'ordine da campioni di tale tiposono studiate nel capitolo sui campioni casuali.

Laboratorio virtuale > Modelli di campionamento finito > 1 2 3 4 [5] 6 7 8 9 10Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Statistiche d'ordine

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn5.html (4 di 4) [22/11/2001 17.53.25]

Page 360: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Spazi di Probabilità > 1 2 3 4 5 6 7 [8]

8. Note conclusive

Libri

An Introduction to Probability Theory and its Applications, Volume 1 (terzaedizione) di William Feller è considerato uno dei migliori testi sulla probabilità maiscritti.

Un testo eccellente per la probabilità elementare ricco di esempi ed esercizi è AFirst Course in Probability (quinta edizione) di Sheldon Ross

Una trattazione sintetica della probabilità elementare si ha in The Essentials ofProbability di Richard Durrett

Per una trattazione più completa dal punto di vista della misura di probabilità, puoivedere Probability and Measure, di Patrick Billingsley.

Una trattazione della storia della probabilità è in Games, Gods and Gambling, diFlorence David

Siti esterni

Il sito più importante per informazioni storiche sulla probabilità è History ofMathematics.

Risposte agli esercizi del paragrafo 2

2.13.

S = {1, 2, 3, 4, 5, 6}2 .1.

A = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6)}2.

B = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}3.

A B = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6,1)}

4.

A B = {(1, 6)}5.

Ac Bc = (A B)c = {(2, 1), (2, 2), (2, 3), (2, 4), (2, 6), (3, 1), (3, 2), (3, 3), (3,5), (3, 6), (4, 1), (4, 2), (4, 4), (4, 5), (4, 6), (5, 1), (5, 3), (5, 4), (5, 5), (5, 6), (6, 2),(6, 3), (6, 4), (6, 5), (6, 6)}

6.

2.15. Indica i nomi delle carte con 1 (asso), 2-10, 11 (jack), 12 (regina), 13 (re) e i semicon 0 (fiori), 1 (quadri), 2 (cuori), 3 (picche).

S = {1, 2, ..., 13} × {0, 1, 2, 3}.1.

Q = {(12, 0), (12, 1), (12, 2), (12, 3)}2.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob8.html (1 di 11) [22/11/2001 17.53.45]

Page 361: Laboratorio virtuale di probabilità e statistica

H = {1, 2, ..., 13} × {2}3.

Q H = {(y, z) S: y = 12 o z = 2}4.

Q H = {(12, 2}}5.

Q Hc = {(12, 0), (12, 1}, (12, 3)}6.

2.17.

S = [-1/2, 1/2]2 .1.

A = [-1/2 + r, 1/2 - r]2.2.

Ac = {(x, y) S: x < -1/2 + r o x > 1/2 - r o y < -1/2 + r o y > 1/2 + r}3.

2.19. S = {1, 2, 3, ...}

2.20.

S = {(1, 4), (2, 3), (3, 2), (4, 1), (1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}1.

A = {(1, 4), (2, 3), (3, 2), (4, 1)}2.

2.21. Sia 1 testa e 0 croce.

S = {(i1, i2, ..., in): n {1, 2, 3, 4, 5, 6}, ij {0, 1} j = 1, ..., n}1.

A = {11, 011, 101, 110, 0011, 0101, 0110, 1001, 1010, 1100,00011, 00101, 00110, 01001, 01010, 01100, 10001, 10010, 10100, 11000000011, 000101, 000110, 001001, 001010, 001100, 010001, 010010, 010100,011000,100001, 100010, 100100, 101000, 110000}

2.

2.23. Sia 1 testa e 0 croce.

S = {0, 1} × {1, 2, 3, 4, 5, 6}1.

A = {0, 1} × {4, 5, 6}2.

2.25. Per il sesso, sia 0 femmina e 1 maschio.

S = ({18, 19, ...} × {0, 1} × {1, 2, 3})100.

2.26. Per il sesso, sia 0 femmina e 1 maschio. Per la specie, sia 1 la tredecula, 2 latredecim e 3 la tredecassini.

S = (0, )4 × {0, 1} × {1, 2, 3}1.

F = {(x1, x2, x3, x4, y, z) S: y = 0}2.

S104 dove S è dato in (a).4.

2.27.

S = {0, 1, 2, 3, ...}6 × (0, ).1.

A = {(n1, n2, n3, n4, n5, n6, w) S: n1 + n2 + n3 + n4 + n5 + n6 > 57}.2.

S30 dove S è dato da (a).4.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob8.html (2 di 11) [22/11/2001 17.53.45]

Page 362: Laboratorio virtuale di probabilità e statistica

2.28.

S = {0, 1}5.1.

A = {(x1, x2, x3, x4, x5) S: x1 + x2 + x3 + x4 + x5 3}2.

2.29.

S = (0, )2.1.

A = (1000, ) × (0, ).2.

B = {(x, y) S: y > x}.3.

A B = {(x, y) S: x > 1000 or y > x}4.

A B = {(x, y) S: x > 1000 and y > x}5.

A Bc = {(x, y) S: x > 1000 and y x}6.

Risposte agli esercizi del paragrafo 3

3.16.

S = {1, 2, 3, 4, 5, 6}2.1.

Y(x1, x2) = x1 + x2 for (x1, x2) S.2.

U(x1, x2) = min{x1, x2} for (x1, x2) S.3.

V(x1, x2) = max{x1, x2} for (x1, x2) S.4.

{X1 < 3, X2 > 4} = {(1, 5), (2, 5), (1, 6), (2, 6)}5.

{Y = 7} = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}6.

{U = V} = {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)}7.

3.18. Denote the denominations by 1 (ace), 2-10, 11 (jack), 12 (queen), 13 (king) andthe suits by 0 (clubs), 1 (diamonds), 2 (hearts), 3 (spades).

S = {1, 2, ..., 13} × {0, 1, 2, 3}.1.

U(x, y) = x if x < 10, U(x, y) = 10 otherwise.2.

{U = 10} = {10, 11, 12, 13) × {0, 1, 2, 3}.3.

3.20.

S = [-1/2, 1/2]2 .1.

Z(x, y) = (x2 + y2)1/2 for (x, y) S.2.

{X < Y} = {(x, y) S: x < y}.3.

{Z < 1/2} = {(x, y) S: x2 + y2 < 1/4}4.

3.22.

S = {0, 1}3.1.

X(i1, i2, i3) = i1 + i2 + i3 for (i1, i2, i3) S.2.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob8.html (3 di 11) [22/11/2001 17.53.45]

Page 363: Laboratorio virtuale di probabilità e statistica

{X > 1} = {110, 101, 011, 111}3.

3.23.

S = (0, )2.1.

{X <1000} = {(x, y) S: x < 1000}2.

{X < Y} = {(x, y) S: x < y}3.

{X + Y > 2000} = {(x, y) S: x + y > 2000}4.

3.24.

S = {1, 2, 3, 4, 5, 6}3.1.

W(x1, x2, x3) = #{i: xi = 6} - 1.2.

3.27. Sia 1 testa e 0 croce.

S = {(i1, i2, ..., in): n {1, 2, 3, 4, 5, 6}, ij {0, 1} j = 1, ..., n}1.

N(i1, i2, ..., in) = n for (i1, i2, ..., in) S.2.

X(i1, i2, ..., in) = i1 + ··· + in for (i1, i2, ..., in) S.3.

Risposte agli esercizi del paragrafo 4

4.20.

S = {1, 2, 3, 4, 5, 6}2.1.

Se i dadi sono equilibrati, ciascun esito in S deve avere la stessa probabilità.2.

P(A) = 1 / 33.

P(B) = 5 / 364.

P(A B) = 2 / 36.,5.

P(A B) = 5 / 12.6.

P(B Ac) = 1 / 12.7.

4.22. Sia D = {1, 2, ..., 13} × {0, 1, 2, 3} il mazzo di carte, con le denominazioni 1(asso), 2-10, 11 (jack), 12 (regina), 13 (re) e i semi sono 0 (fiori), 1 (quadri), 2 (cuori), 3(picche).

S = {(x1, x2): x1, x2 in D, x1 e x2 distinti} (2652 esiti).1.

Poiché il mazzo è ben mischiato, ciascun esito di S deve avere la stessa probabilità.2.

P(H1) = 1 / 4.3.

P(H1 H2) = 1 / 17.4.

P(H1c H2) = 13 / 68.5.

P(H2) = 1 / 4.6.

P(H1 H2) = 15 / 34.7.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob8.html (4 di 11) [22/11/2001 17.53.45]

Page 364: Laboratorio virtuale di probabilità e statistica

4.24.

S = [-1/2, 1/2]2 .1.

Poiché la moneta è lanciata "casualmente," nessuna regione di S dev'esserepreferita a un'altra.

2.

P(A) = (1 - 2r)2.3.

P(Ac) = 1 - (1 - 2r)2.4.

4.26.

A si veriica, ma non B. P(A Bc) = 7 / 30.1.

A o B si verifica. P(A B) = 29 / 60.2.

Uno degli eventi non si verifica. P[(A B)c] = 9 / 10.3.

Nessun evento si verifica. P[(A B)c] = 31 / 60.4.

Si verifica A o B non si verifica. P(A Bc) = 17 / 20.5.

4.27.

P(A B C) = 0.67.1.

P[(A B C)c] = 0.33.2.

P[(A Bc Cc) (Ac B Cc) (Ac Bc C)] = 0.453.

P[(A B Cc) (A Bc C) (Ac B C)] = 0.214.

4.28.

S = {(1, 4), (2, 3), (3, 2), (4, 1), (1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}1.

Poiché i dadi sono equilibrati, ciascun esito di S dev'essere ugualmente probabile.2.

P(A) = 2 / 5.3.

4.29.

S = {0, 1}3.1.

Poiché le monete sono bilanciate, ciascun esito di S dev'essere ugualmenteprobabile.

2.

P(A) = 1 / 2.3.

P(B) = 3 / 8.4.

P(A B) = 1 / 4.5.

P(A B) = 5 / 86.

P(Ac Bc) = 3 / 4.7.

P(Ac Bc) = 3 / 88.

P(A Bc) = 7 / 8.9.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob8.html (5 di 11) [22/11/2001 17.53.45]

Page 365: Laboratorio virtuale di probabilità e statistica

4.30. Supponi che le palline siano numerate da 1 a 12, con le palline da 1 a 5 rosse, da6 a 9 verdi, da 10 a 12 blu.

S = {{x, y, z}: x, y, z {1, 2, ..., 12}, x, y, z distinti} (220 esiti)1.

P(A) = 3 / 44.2.

P(B) = 3 / 11.3.

4.31. Supponi che le palline siano numerate da 1 a 12, con le palline da 1 a 5 rosse, da6 a 9 verdi, da 10 a 12 blu.

S = {1, 2, ..., 12}3 (1728 esiti).1.

P(A) = 1 / 8.2.

P(B) = 5 / 24.3.

4.33.

P(R) = 13 / 30.1.

P(T) = 19 / 30.2.

P(W) = 9 / 30.3.

P(R T) = 9 / 30.4.

P(T Wc) = 11 / 30.5.

4.34.

P(W) = 37 / 104.1.

P(F) = 59 / 104.2.

P(T) = 44 / 104.3.

P(W F) = 34 / 104.4.

P(W T F) = 85 / 104.5.

Risposte agli esercizi del paragrafo 5

5.5.

P(A | B) = 2 / 5.1.

P(B | A) = 3 / 10.2.

P(Ac | B) = 3 / 5.3.

P(Bc | A) = 7 / 10.4.

P(Ac | Bc) = 31 / 45.5.

5.6.

P(X1 = 3 | Y = 6) = 1 / 5, P(X1 = 3) = 1 / 6, positivamente correlati.1.

P(X1 = 3 | Y = 7) = 1 / 6, P(X1 = 3) = 1 / 6, indipendenti.2.

P(X1 < 3 | Y > 7) = 1 / 15, P(X1 < 3) = 1 / 3, negativamente correlati.3.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob8.html (6 di 11) [22/11/2001 17.53.45]

Page 366: Laboratorio virtuale di probabilità e statistica

5.8.

P(Q1) = 1 / 13, P(H1) = 1 / 4, P(Q1 | H1) = 1 / 13, P(H1 | Q1) = 1 / 4, indipendenti.1.

P(Q1) = 1 / 13, P(Q2) = 1 / 13, P(Q1 | Q2) = 3 / 51, P(Q2 | Q1) = 3 / 51,negativamente correlati.

2.

P(Q2) = 1 / 13, P(H2) = 1 / 4, P(Q2 | H2) = 1 / 13, P(H2 | Q2) = 1 / 4, indipendenti.3.

P(Q1) = 1 / 13, P(H2) = 1 / 4, P(Q1 | H2) = 1 / 13, P(H2 | Q1) = 1 / 4, indipendenti.4.

5.10. Sia Hi l'evento in cui la carta i-esima è di cuori e Si l'evento in cui la carta i-esimaè di picche.

P(H1 H2 H3) = 11 / 850.1.

P(H1 H2 S3) = 13 / 850.2.

P(H1 S2 H3) = 13 / 850.3.

5.12. Per un soggetto scelto a caso dalla popolazione, sia S l'evento in cui il soggettofuma e D l'evento in cui il soggetto è ammalato.

P(D S) = 0.036.1.

P(S | D) = 0.452.

S e D sono positivamente correlati.3.

5.13.

P(A Bc)| C) = 1 / 4.1.

P(A B | C) = 7 / 12.2.

P(Ac Bc | C) = 5 / 12.3.

5.14.

P(A B) = 1 / 4.1.

P(A B) = 7 / 12.2.

P(B Ac) = 3 / 4.3.

P(B | A) = 1 / 2.4.

5.15. Sia R il numero di pastiglie rosse e W il peso.

P(R 10 | W 48) = 10 / 23.

5.16. Sia M l'evento in cui la cicala è maschio, U l'evento in cui la cicala è treducla, eW il peso corporeo.

P(W 0.25 | M) = 2 / 45.1.

P(W 0.25 | U) = 7 / 44.2.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob8.html (7 di 11) [22/11/2001 17.53.45]

Page 367: Laboratorio virtuale di probabilità e statistica

5.17. La distribuzione condizionata di (X1, X2) dato Y = 7 è uniforme su {(1, 6), (2, 5),(3, 4), (4, 3), (5, 2), (6, 1)}.

5.18.

P(X > 30) = 2 / 3.1.

P(X > 45 | X > 30) = 1 / 2.2.

Dato X > 30, X è uniformemente distribuito su (30, 60).3.

5.19.

P(Y > 0 | X < Y) = 3 / 4.1.

Dato (X, Y) [-1/2 + r, 1/2 - r]2, (X, Y) è uniformemente distribuito su [-1/2 + r,1/2 - r]2.

2.

5.23. Sia X il punteggio dei dadi e H l'evento in cui tutti i lanci sono testa.

P(H) = 21 / 128.1.

P(X = i | H) = (64 / 63)(1 / 2i) for i = 1, 2, 3, 4, 5, 6.2.

5.25. Sia U la probabilità di testa per la moneta estratta a caso, e H l'evento in cui escetesta.

P(H) = 41 / 721.

P(U = 1 / 2 | H) = 15 / 41, P(U = 1 / 3 | H) = 8 / 41, P(U = 1 | H) = 18 / 412.

5.26. Sia X il punteggio del dado H l'evento in cui esce testa.

P(X = i) = 5 / 24 per i = 1, 6; P(X = i) = 7 / 48 per i = 2, 3, 4, 5.1.

P(H | X = 4) = 3 / 7, P(T | X = 4) = 4 / 7.2.

5.28. Sia X la linea di produzione dell'unità selezionata, e D l'evento in cui l'unità èdifettosa.

P(D) = 0.037.1.

P(X = 1 | D) = 0.541, P(X = 2 | D) = 0.405, P(X = 3 | D) = 0.0542.

5.29.

3.75% della popolazione è daltonica1.

93.3% dei daltonici sono maschi.2.

5.30. Sia Ri l'evento in cui la pallina i-esima è rossa e Gi l'evento in cui la pallinai-esima è verde.

P(R1 R2 G3) = 4 / 35.1.

P(R2) = 3 / 5.2.

P(R1 | R2) = 2 / 3.3.

5.31. Sia G l'evento in cui la pallina è verde e U1 l'evento in cui si seleziona l'urna 1.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob8.html (8 di 11) [22/11/2001 17.53.45]

Page 368: Laboratorio virtuale di probabilità e statistica

P(G) = 9 / 20.1.

P(U1 | G) = 2 / 3.2.

5.32. Sia G1 l'evento in cui la pallina dell'urna 1 è verde e G2 l'evento in cui la pallinadell'urna 2 è verde.

P(G2) = 9 / 25.1.

P(G1 | G2) = 2 / 3.2.

Risposte agli esercizi del paragrafo 6

6.1.

P(Q1) = P(Q2) = 1 / 13, P(Q2 | Q1) = P(Q1 | Q2) = 1 / 17. Q1, Q2 sononegativamente correlati.

1.

P(H1) = P(H2) = 1 / 4, P(H2 | H1) = P(H1 | H2) = 4 / 17. H1, H2 sono negativamentecorrelati.

2.

P(Q1) = P(Q1 | H1) = 1 / 13, P(H1) = P(H1 | Q1) = 1 / 4. Q1, H1 sono indipendenti.3.

P(Q2) = P(Q2 | H2) = 1 / 13, P(H2) = P(H2 | Q2) = 1 / 4. Q2, H2 sono indipendenti.4.

P(Q1) = P(Q1 | H2) = 1 / 13, P(H2) = P(H2 | Q1) = 1 / 4. Q1, H2 sono indipendenti.5.

P(Q2) = P(Q2 | H1) = 1 / 13, P(H1) = P(H1 | Q2) = 1 / 4. Q2, H1 sono indipendenti.6.

6.5. Devono esserci 9 dirigenti donna.

6.11. A, B, C sono indipendenti se e solo se

P(A B) = P(A)P(B).1.

P(A C) = P(A)P(C).2.

P(B C) = P(B)P(C).3.

P(A B C) = P(A)P(B)P(C).4.

6.12. A, B, C, D sono indipendenti se e solo se

P(A B) = P(A)P(B).1.

P(A C) = P(A)P(C).2.

P(A D) = P(A)P(D).3.

P(B C) = P(B)P(C).4.

P(B D) = P(B)P(D).5.

P(C D) = P(C)P(D).6.

P(A B C) = P(A)P(B)P(C).7.

P(A B D) = P(A)P(B)P(D).8.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob8.html (9 di 11) [22/11/2001 17.53.46]

Page 369: Laboratorio virtuale di probabilità e statistica

P(A C D) = P(A)P(C)P(D).9.

P(B C D) = P(B)P(C)P(D).10.

P(A B C D) = P(A)P(B)P(C)P(D).11.

6.13.

P(A B C) = 0.93.1.

P(Ac Bc Cc) = 0.07.2.

P[(A Bc Cc) (Ac B Cc) (Ac Bc C)] = 0.220.3.

P[(A B Cc) (A Bc C) (Ac B C)] = 0.430.4.

6.17.

P[(A B) C] = 3 / 8.1.

P[A Bc C] = 7 / 8.2.

P[(Ac Bc) Cc] = 5 / 6.3.

6.18. 1/16

6.21. Sia A l'evento in cui esce almeno un sei.

P(A) = 1 - (5 / 6)5 ~ 0.5981.

6.22. Sia A l'evento in cui esce almeno un doppio sei.

P(A) = 1 - (35 / 36)10 ~ 0.2455

6.23.

P(X = 0) = 32 / 2431.

P(X = 1) = 80 / 2432.

P(X = 2) = 80 / 2433.

P(X = 3) = 40 / 2434.

P(X = 4) = 10 / 2435.

P(X = 5) = 1 / 2436.

6.27.

P(X < Y) = 11 / 12.1.

P(X > 20, Y > 20) = 8 / 27.2.

6.32. Sia F in cui esce un punteggio somma di 4 prima di un punteggio somma di 7.

P(F) = 1 / 3.

6.37.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob8.html (10 di 11) [22/11/2001 17.53.46]

Page 370: Laboratorio virtuale di probabilità e statistica

R = 0.5041.

R = 0.9022.

R = 0.9943.

6.38.

R = (p1 + p2 - p1 p2)(p4 + p5 - p4 p5)p3 + (p1 p4 + p2 p5 - p1 p2 p4 p5)(1 - p3)

6.39. Sia L l'evento in cui la situazione è di basso stress e W l'evento in cui il sistemafunziona

P(W) = 0.99171.

P(L | W) = 0.5042.

6.42. Sia A l'evento in cui la donna è incinta e Ti l'evento in cui il test i-esimo èpositivo.

P(A | T1 T2c T3) = 0.834.

6.43.

sensitività 1 - (1 - a)3, specificità b3.1.

sensitività 3a2(1 - a) + a3, specificità b3 + 3b2(1 - b).2.

sensitività a3, specificità 1 - (1 - b)3.3.

6.44. Sia C l'evento in cui l'imputato è condannato e G l'evento in cui l'imputato ècolpevole.

P(C) = 0.514581.

P(G | C) = 0.999962.

6.55. 11 / 12.

Risposte agli esercizi del paragrafo 7

7.25. Sia Hn l'evento in cui il lancio n-esimo risulta testa, e Tn l'evento in cui il lancion-esimo risulta croce.

P(lim supn Hn) = 1, P(lim supn Tn) = 1 se 0 < a 1.1.

P(lim supn Hn) = 0, P(lim supn Tn) = 1 se a > 0.2.

Laboratorio virtuale > Spazi di Probabilità > 1 2 3 4 5 6 7 [8]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/prob/prob8.html (11 di 11) [22/11/2001 17.53.46]

Page 371: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli di campionamento finito > [1] 2 3 4 5 6 7 8 9 10

1. Introduzione

Il modello di campionamento semplice

Supponiamo di avere una popolazione D di N unità. La popolazione può essere un mazzodi carte, un insieme di persone, un'urna piena di palline, o qualsiasi altro tipo dicollezione. In molti casi, indichiamo semplicemente le unità con numeri da 1 a N, per cuiD = {1, 2, ..., N}. In altri casi (ad esempio in quello delle carte) può essere più naturaleindicare le unità con vettori. In ogni caso, D è un sottinsieme di Rk per qualche k.

L'esperimento di base consiste nell'estrarre a caso n unità dalla popolazione D e registrarela sequenza di unità estratte:

X = (X1, X2, ..., Xn), dove Xi appartenente a D è l'i-esima unità estratta.

Se l'estrazione avviene con reinserimento, la dimensione campionaria n può esserequalsiasi intero positivo. In questo caso, lo spazio campionario S è

S = Dn = {(x1, x2, ..., xn): x1, x2, ..., xn in D}.

Se l'estrazione avviene senza reinserimento, la dimensione campionaria n non può esseremaggior della dimensione della popolazione N. In questo caso, lo spazio campionario S ècostituito da tutte le permutazioni di dimensione n estratte da D:

S = Dn = {(x1, x2, ..., xn): x1, x2, ..., xn in D sono distinti}.

1. Prova che

#(Dn) = Nn.1.

#(Dn) = (N)n = N(N - 1) ··· (N - n + 1).2.

In entrambe le modalità di estrazione assumiamo che i campioni siano equiprobabili equindi che la variabile esito X sia distribuita uniformemente su S; tale è il significato deltermine campione casuale:

P(X A) = #(A) / #(S) per A S.

Esempi e casi particolari

Siamo particolarmente interessati ai seguenti modelli speciali:

Una popolazione dicotomica è formata da due tipi di unità. Per esempio, possiamoavere un'urna contenente palline rosse o verdi, una scatola di componenti elettroniciche possono essere funzionanti o difettosi, una popolazione di soggetti che possonoessere maschi o femmine, o una popolazione di animali che sono marchiati o nonmarchiati.

1.

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn1.html (1 di 5) [22/11/2001 17.53.53]

Page 372: Laboratorio virtuale di probabilità e statistica

Più in generale, una popolazione multitipo è formata da unità di k tipi diversi. Peresempio, un gruppo di elettori può essere formato da democratici, repubblicani eindipendenti, o un'urna può contenere palline di diversi colori.

2.

Un mazzo di carte standard può essere modellato da D = {1, 2, ..., 13} × {0, 1, 2,3}, dove la prima coordinata codifica la denominazione (asso, 2-10, jack, regina,re) e la seconda coordinata il seme (picche, quadri, fiori, cuori). L'esperimento dellecarte consiste nell'estrarre n carte a caso e senza reinserimento dal mazzo D.Pertanto la carta i-esima è Xi = (Yi, Zi) dove Yi è la denominazione e Zi è il seme.Il caso in cui n = 5 è l'esperimento del poker e il caso n = 13 è l'esperimento delbridge.

3.

Lanciare n dadi bilanciati a sei facce è equivalente a scegliere un campione didimensione n con reinserimento dalla popolazione D = {1, 2, 3, 4, 5, 6}. Ingenerale, selezionare un campione casuale di dimensione n con reinserimento da D= {1, 2, ..., N} è equivalente a lanciare n dadi equilibrati a N facce.

4.

Supponiamo di scegliere n persone a caso e registrare i loro compleanni. Seassumiamo che i loro compleanni siano distribuiti uniformemente nell'anno, e seignoriamo gli anni bisestili, allora l'esperimento è equivalente ad estrarre uncampione di dimensione n, con reinserimento, da D = {1, 2, ..., 365}. Similmente,possiamo registrare i mesi e le settimane di nascita.

5.

Supponiamo di distribuire a caso n palline distinte in N caselle. L'esperimento siadatta al modello di base, in cui D è la popolazione di caselle e Xi è la casella checontiene l'i-esima pallina. Campionamento con reinserimento significa che unacasella può contenere più di una pallina, campionamento senza reinserimentosignifica che una casella può contenere al massimo una pallina.

6.

Supponiamo che all'acquisto di un certo prodotto (gomme da masticare o cereali,per esempio), si riceva un coupon (una figurina di calciatori o un giocattolo, peresempio), con identica probabilità di ricevere ciascuno degli N tipi. Possiamopensare a questo esperimento come a un campionamento con reinserimento dallapopolazione dei tipi di coupon; Xi è il coupon che riceviamo all'i-esimo acquisto.

7.

La proprietà di scambiabilità

Torniamo al modello generale consistente nell'estrarre a caso n unità dalla popolazione D,con o senza reinserimento.

2. Mostra che ogni permutazione di (X1, X2, ..., Xn) ha la medesima distribuzione di(X1, X2, ..., Xn) stesso (cioè uniforme sullo spazio campionario appropriato S).

Una sequenza di variabili casuali che godono di tale proprietà è detta scambiabile. Anchese il concetto è molto semplice da afferrare, sia intuitivamente che formalmente, è in ognicaso estremamente importante. Useremo spesso nel corso di questo capitolo la proprietàdi scambiabilità.

3. Mostra che ogni sequenza di m delle n variabili esito è distribuita uniformementesullo spazio campionario appropriato:

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn1.html (2 di 5) [22/11/2001 17.53.53]

Page 373: Laboratorio virtuale di probabilità e statistica

Dm se l'estrazione è con reinserimento.1.

Dm se l'estrazione è senza reinserimento.2.

In particolare, per ciascun modello di campionamento, Xi è distribuita uniformemente suD per ogni i.

4. Mostra che, se l'estrazione è con reinserimento, X1, X2, ..., Xn sono indipendenti.

Pertanto, nel caso di campionamento con reinserimento, le variabili del campioneformano un campione casuale dalla distribuzione uniforme, in senso tecnico.

5. Mostra che, se l'estrazione è senza reinserimento, allora la distribuzionecondizionata della sequenza di m delle variabili esito data una sequenza di altre j variabiliesito è la distribuzione uniforme sull'insieme delle permutazioni di dimensione m estrattedalla popolazione quando le j unità note sono rimosse (ovviamente, m + j non può esseremaggiore di n).

In particolare, Xi e Xj sono dipendenti per i e j distinti se il campionamento è senzareinserimento.

Campioni non ordinati

In molti casi, in particolare se il campionamento è senza reinserimento, l'ordine in cui leunità vengono estratte non è rilevante, ciò che importa è l'insieme (non ordinato) di unità:

W = {X1, X2, ..., Xn}.

Supponiamo in primo luogo che l'estrazione avvenga senza reinserimento. In questo caso,W assume valori nell'insieme di combinazioni di dimensione n estratte da D:

T = {{x1, x2, ..., xn}: x1, x2, ..., xn in D sono distinti}.

6. Mostra che #(T) = C(N, n)

7. Prova che W è distribuita uniformemente su T:

P(W B) = #(B) / #(T) = #(B) / C(N, n) per B T.

Suggerimento: Per ogni combinazione di dimensione n da D, esistono n! permutazioni didimensione n.

Se l'estrazione è con reinserimento, W assume valori nella collezioni di sottinsiemi di D,di dimensione da 1 a n:

T = {{x1, x2, ..., xn}: x1, x2, ..., xn in D}.

8. Prova che #(T) = C(N + n - 1, n).

9. Mostra che W non è distribuita uniformemente su T.

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn1.html (3 di 5) [22/11/2001 17.53.53]

Page 374: Laboratorio virtuale di probabilità e statistica

Esercizi computazionali

10. Supponi di estrarre un campione di dimensione 2 dalla popolazione {1, 2, 3, 4, 5,6}. Fai la lista di tutti i campioni

Ordinati con reinserimento.1.

Ordinati senza reinserimento.2.

Non ordinati con reinserimento.3.

Non ordinati senza reinserimento.4.

11. Nell'esperimento delle carte con n = 5 carte (poker), mostra che ci sono

311875200 mani ordinate1.

2598960 mani non ordinate2.

12. Nell'esperimento delle carte con n = 13 carte (bridge), mostra che ci sono

3954242643911239680000 mani ordinate1.

635013559600 mani non ordinate2.

13. Nell'esperimento delle carte, poni n = 3. Simula 5 replicazioni e ogni volta segna lesequenza (ordinate) di carte che darebbero la stessa mano non ordinata che hai ottenuto.

14. Nell'esperimento delle carte, mostra che

Yi è distribuita uniformemente su {1, 2, ..., 13} per ogni i.1.

Zi è distribuita uniformemente su {0, 1, 2, 3} per ogni i.2.

15. Nell'esperimento delle carte, mostra che Yi e Zj sono indipendenti per ogni i e j.

16. Nell'esperimento delle carte, mostra che (Y1, Y2), (Z1, Z2) sono dipendenti.Confronta questo risultato con quello dell'esercizio precedente.

17. Supponi di estrarre una sequenza di 5 carte.

Trova la probabilità che la terza carta sia di picche.1.

Trova la probabilità che la seconda e la quarta carta siano regine.2.

Trova la probabilità condizionata che la seconda carta sia di cuori sapendo che laquinta è di cuori.

3.

Trova la probabilità che la terza carta sia una regina e la quarta sia di cuori.4.

18. Replica l'esperimento delle carte 500 volte, aggiornando ogni volta. Calcola lafrequenza relativa che corrisponde a ciascun valore di probabilità nell'esercizioprecedente.

19. Trova la probabilità che una mano di bridge non contega "10", jack, regine, re oassi. Tale mano si dice Yarborough, in onore di Earl of Yarborough.

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn1.html (4 di 5) [22/11/2001 17.53.53]

Page 375: Laboratorio virtuale di probabilità e statistica

Il problema della chiave

Supponiamo che una persona abbia n chiavi, di cui solo una apre una certa porta. Lapersona prova a caso le chiavi. Indicheremo con N il numero di prova alla quale lapersona trova la chiave giusta.

20. Supponi che le chiavi che non aprono vengano scartate (il che è la cosa piùrazionale da fare, ovviamente). Prova che

P(N = i) = 1 / n per i = 1, 2, ..., n. Quindi N ha distribuzione uniforme su {1, 2, ...,n}.

1.

E(N) = (n + 1) / 2.2.

var(N) = (n2 - 1) / 12.3.

21. Supponi che le chiavi che non aprono non vengano scartate (magari la persona habevuto un po' troppo). Prova che

P(N = i) = [(n - 1) / n]i - 1(1 / n) for i = 1, 2, ... Quindi N ha distribuzione geometricasu {1, 2, ...} con parametro 1 / n.

1.

E(N) = n.2.

var(N) = n(n - 1).3.

Laboratorio virtuale > Modelli di campionamento finito > [1] 2 3 4 5 6 7 8 9 10Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn1.html (5 di 5) [22/11/2001 17.53.53]

Page 376: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli geometrici > [1] 2 3 4 5

1. Problema della moneta di Buffon

L'esperimento della moneta di Buffon è un esperimento casuale, molto antico econosciuto, che prende nome dal conte di Buffon. L'esperimento consiste nel lanciare acaso una moneta su un pavimento coperto da mattonelle di identica forma. L'evento diinteresse è che la moneta cada su una intercapedine tra le mattonelle. Inizieremo amodellare il problema della moneta di Buffon con il caso di mattonelle quadrate di lato 1(assumere lunghezza del lato unitaria equivale a misurare la distanza in unità di lato).

Assunzioni

Iniziamo definendo l'esperimento in termini più formali. Come al solito, procederemoidealizzando gli oggetti fisici: assumiamo che la moneta sia un cerchio perfetto di raggio re che le intercapedini siano segmenti di linee. Un modo naturale per descrivere l'esitodell'esperimento è registrare il centro della moneta relativamente al centro dellamattonella su cui è caduta. Più precisamente, costruiremo assi di coordinate tali che lamattonella dove cade la moneta occupi il quadrato

S = [-1/2, 1/2]2 = {(x, y): -1/2 x 1/2, -1/2 y 1/2}

Ora, quando la moneta viene lanciata, indichiamo il suo centro con (X, Y) S cosicché Sè lo spazio campionario e X e Y sono le nostre variabili casuali. Assumiamo infine che r <1/2 per cui è almeno possibile che la moneta cada dentro una mattonella senza toccare unadelle intercapedini.

Ora dobbiamo definira una misura di probabilità appropriata per il nostro vettore aleatorio(X, Y). Se la moneta è gettata "a caso" sul pavimento, è naturale assumere che (X, Y) siadistribuita uniformemente su S. Per definizione ciò significa che

P[(X, Y) A] = area(A) / area(S) per A S.

Problema della moneta di Buffon

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon1.html (1 di 3) [22/11/2001 17.53.58]

Page 377: Laboratorio virtuale di probabilità e statistica

1. Esegui l'esperimento della moneta di Buffon con le impostazioni predefinite.Osserva come i punti finiscono per riempire lo spazio campionario S in maniera uniforme.

La probabilità di toccare un'intercapedine

Il nostro interesse è puntato sull'evento C in cui la moneta cade su un intercapedine. Inogni caso, sembra più semplice descrivere l'evento complementare, in cui la moneta nonincrocia nessuna fessura.

2. Mostra che

Cc = {r - 1/2 < X < 1/2 - r, r - 1/2 < Y < 1/2 - r}

3. Usa il risultato dell'esercizio 2 per mostrare che

P(Cc) = (1 - 2r)21.

P(C) = 1 - (1 - 2r)2.2.

4. Usa l'analisi (o ciò che sai sulle parabole) per provare che P(C), in funzione di r, hail grafico sotto riportato:

5. Nell'esperimento della moneta di Buffon, modifica il raggio con la barra ascorrimento e osserva come variano gli eventi C e Cc. Simula l'esperimento con diversivalori di r e confronta l'esperimento fisico coi punti della dispersione. Osserva laconvergenza della frequenza relativa di C alla probabilità di C.

La convergenza della frequenza relativa di un evento (al ripetersi dell'esperimento) allaprobabilità dell'evento è un caso particolare della legge dei grandi numeri.

6. Risolvi il problema della moneta di Buffon nel caso di mattonelle rettangolari dialtezza h e base w.

Problema della moneta di Buffon

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon1.html (2 di 3) [22/11/2001 17.53.58]

Page 378: Laboratorio virtuale di probabilità e statistica

7. Risolvi il problema della moneta di Buffon nel caso di mattonelle triangolari di lato1.

Laboratorio virtuale > Modelli geometrici > [1] 2 3 4 5Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Problema della moneta di Buffon

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon1.html (3 di 3) [22/11/2001 17.53.58]

Page 379: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Prove Bernoulliane > 1 2 3 4 5 [6] 7

6. La distribuzione multinomiale

Prove multinomiali

Un processo di prove multinomiali è una successione di variabili casuali indipendenti eidenticamente distribuite

U1, U2, ...,

ciascuna suscettibile di assumere k possibili valori. Pertanto il processo di provemultinomiali è una semplice generalizzazione del processo di prove Bernoulliane (checorrisponde al caso k = 2). Per semplicità indicheremo gli esiti con gli interi 1, 2, ..., k. Lafunzione di densità comune alle variabili della prova è

pi = P(Uj = i) per i = 1, 2, ..., k (e per ogni j).

Ovviamente pi > 0 per ogni i e p1 + p2 + ··· + pk = 1.

Analogamente al caso della distribuzione binomiale, siamo interessati alle variabili cheindicano il numero di volte in cui ciascun esito si è verificato. Sia

Zi = #{j {1, 2, ..., n}: Uj = i} per i = 1, 2, ..., k

(per semplicità omettiamo la dipendenza da n). Notiamo che

Z1 + Z2 + ··· + Zk = n,

per cui se conosciamo i valori di k - 1 delle variabili di conteggio, possiamo trovare ilvalore della rimanente. Così come per ogni altra variabile di conteggio, possiamoesprimere Zi come somma di variabili indicatore:

1. Prova che Zi = Ii1 + Ii2 + ··· + Iin dove Iij = 1 if Uj = i e Zij = 0 altrimenti.

Distribuzioni

Per ricavare le distribuzioni congiunte, marginali e condizionate delle variabili conteggiopossiamo utilizzare alcuni semplici strumenti di indipendenza e calcolo combinatorio. Inparticolare, ricordiamo la definizione di coefficiente multinomiale

C(n; j1, j2, ..., jk) = n! / (j1! j2! ··· jk!) per interi positivi j1, j2, ..., jk con j1 + j2 + ··· + jk = n.

2. Prova che per interi positivi j1, j2, ..., jk con j1 + j2 + ··· + jk = n,

P(Z1 = j1, Z2 = j2, ..., Zk = jk) = C(n; j1, j2, ..., jk) p1j1 p2

j2 ··· pkjk.

La distribuzione di (Z1, Z2, ..., Zk) è detta distribuzione multinomiale con parametri n e

La distribuzione multinomiale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli6.html (1 di 4) [22/11/2001 17.54.04]

Page 380: Laboratorio virtuale di probabilità e statistica

p1, p2, ..., pk.

Diciamo inoltre che (Z1, Z2, ..., Zk-1) ha tale distribuzione (ricorda che i valori di k - 1delle variabili di conteggio determinano il valore della rimanente). Di solito è chiaro dalcontesto il senso in cui si intende il termine distribuzione multinomiale. Di nuovo, lasemplice distribuzione binomiale corrisponde a k = 2.

3. Prova che Zi ha distribuzione binomiale con parametri n e pi:

P(Zi = j) = C(n, j) pij (1 - pi)n - j for j = 0, 1, ..., n

La distribuzione multinomiale è preservata dalla combinazione delle variabili diconteggio. In particolare, supponiamo che A1, A2, ..., Am sia una partizione dell'insiemedi indici {1, 2, ..., k} in sottinsiemi non vuoti. Per ciascun j, sia Wj la somma degli Zisugli i in Aj, e sia qj la somma dei pi sugli i in Aj.

4. Mostra che (W1, W2, ..., Wm) ha distribuzione multinomiale con parametri n eq1, q2, ..., qm.

La distribuzione multinomiale rimane anche quando alcune delle variabili di conteggiosono osservate. In particolare, supponiamo che A, B sia una partizione dell'insieme diindici {1, 2, ..., k} in sottinsiemi non vuoti. Supponiamo di osservare Zj = zj per jappartenente a B. Sia z la somma degli zj sugli j appartenenti a B, e sia p la somma dei pisugli i appartenenti a A.

5. Mostra che la distribuzione condizionata di Zi, i appartenente a A dato Zj = zj, jappartenente a B è multinomiale con parametri n - z e pi / p per i appartenente a A.

Combinazioni dei risultati degli esercizi 5 e 6 possono essere utilizzate per calcolarequalunque distribuzione marginale o condizionata.

6. Nell'esperimento dei dadi, seleziona il numero di uno. Per ciascuna distribuzione deldado, inizia con un dado e aggiungine uno ogni volta, osservando la forma della funzionedi densità. Quando arrivi a 10 dadi, esegui la simulazione, aggiornando ogni 10replicazioni. Osserva la convergenza delle frequenze relative alla funzione di densità.

Momenti

Calcoliamo ora media, varianza, covarianza e correlazione delle variabili di conteggio,utilizzando i risultati relativi alla binomiale e la rappresentazione in termini di variabiliindicatore.

7. Prova che

E(Zi) = npi.1.

var(Zi) = npi(1 - pi).2.

La distribuzione multinomiale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli6.html (2 di 4) [22/11/2001 17.54.04]

Page 381: Laboratorio virtuale di probabilità e statistica

8. Mostra che, per i e j distinti,

cov(Zi, Zj) = -n pi pj.1.

cor(Zi, Zj) = - {pi pj / [(1 - pi)(1 - pj)]}1/2.2.

Dall'esercizio 8, nota che il numero di volte che si verifica l'esito i e il numero di volte chesi verifica l'esito j sono negativamente correlati, ma la correlazione non dipende da n o k.Ti sembra ragionevole?

9. Usa il risultato dell'esercizio 8 per mostrare che, se k = 2, allora il numero di volteche si verifica il risultato 1 e il numero di volte che si verifica l'esito 2 sono perfettamentecorrelati. Ti sembra ragionevole?

10. Nell'esperimento dei dadi, seleziona il numero di uno. Per ciascuna distribuzionedel dado, inizia con un dado e aggiungine uno ogni volta, osservando la dimensione e laposizione della barra media/deviazione standard. Quando arrivi a 10 dadi, esegui lasimulazione, aggiornando ogni 10 replicazioni. Osserva la convergenza dei momentiempirici ai momenti teorici.

Problemi computazionali

11. Supponi di lanciare 10 dadi equilibrati. Trova la probabilità che

I punteggi 1 e 6 si verifichino una volta ciascuno e gli altri punteggi due volteciascuno.

1.

I punteggi 2 e 4 si presentino 3 volte ciascuno.2.

Ci siano 4 punteggi pari e 6 punteggi dispari.3.

I punteggi 1 e 3 si presentino due volte ciascuno sapendo che il punteggio 2 sipresenta una volta e il 5 tre volte.

4.

12. Supponi di lanciare 4 dadi piatti uno-sei (le facce 1 e 6 hanno probabilità 1/4ciascuna e le facce 2, 3, 4 e 5 hanno probabilità 1/8 ciascuna). Trova la funzione di densitàcongiunta del numero di volte in cui ogni punteggio si verifica.

13. Nell'esperimento dei dadi, seleziona 4 dadi piatti uno-sei. Simula 500 replicazioni,aggiornando ogni volta. Calcola la funzione di frequenza relativa congiunta del numero divolte che ciascun punteggio si presenta. Confronta la funzione di frequenza relativa con lafunzione di densità teorica.

14. Supponi di lanciare 20 dadi piatti uno-sei. Trova covarianza e correlazione delnumero di uno e due.

15. Nell'esperimento dei dadi, seleziona 20 dadi piatti uno-sei. Simula 500replicazioni, aggiornando ogni volta. Calcola i valori empirici di covarianza ecorrelazione del numero di uno e di due. Confronta i risultati coi loro valori teorici trovatinell'esercizio 14.

La distribuzione multinomiale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli6.html (3 di 4) [22/11/2001 17.54.04]

Page 382: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Prove Bernoulliane > 1 2 3 4 5 [6] 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione multinomiale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli6.html (4 di 4) [22/11/2001 17.54.04]

Page 383: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli di campionamento finito > 1 2 [3] 4 5 6 7 8 9 10

3. Inferenza nel modello ipergeometrico

Concetti preliminari

Supponiamo ancora di avere una popolazione dicotomica D con R unità di tipo 1 e N - Rdi tipo 2. Come nell'introduzione, estraiamo a caso n unità da D:

X = (X1, X2, ..., Xn), dove Xi appartenente a D è l'i-esima unità estratta.

In molte applicazioni reali, i parametri R o N (o entrambi) possono essere ignoti. In talcaso, si può essere interessati a trarre inferenza dai parametri ignoti basandosi sulleosservazioni di Y, ovvero il numero di unità di tipo 1 nel campione. Assumiamo periniziare che il campionamento avvenga senza reinserimento, il che è l'ipotesi più realisticanella maggior parte dei casi. Ricordiamo che, in questo caso, Y ha distribuzioneipergeometrica con parametri n, R e N.

Stima di R con N noto

Supponiamo che la dimensione della popolazione N sia nota, ma che sia ignoto il numeroR di unità di tipo 1. Tale situazione si può presentare, ad esempio, se abbiamo una scatoladi N chip di memoria che contengono un numero di unità difettose R. Sarebbe troppocostoso e forse distruttivo sottoporre a test tutti gli N chip, per cui si possono inveceselezionare n chip a caso e sottoporli a test.

Un semplice stimatore di R può essere ricavato sperando che la proporzione campionariadi unità di tipo uno sia prossima alla proporzione nella popolazione di unità di tipo 1.Cioè,

Y / n ~ R / N per R ~ N Y / n.

1. Prova che E(N Y / n) = R.

Il risultto dell'esercizio 1 implica che N Y / n è uno stimatore corretto per R. Quindi lavarianza è misura della qualità dello stimatore, nel senso della media quadratica.

2. Mostra che var(N Y / n) = R (N - R) (N - n) / [n (N - 1)].

3. Prova che, per dati N e R, l'errore quadratico medio tende a 0 per n che tende a N.

Lo stimatore quindi migliora all'aumentare della dimensione campionaria; tale proprietà ènota come consistenza.

4. Nell'esperimento delle palline nell'urna, seleziona l'estrazione senza reinserimento eponi N = 50, R = 20 e n = 10. Simula 100 replicazioni, aggioranando ogni volta.

Per ciascuna replicazione, calcola N Y / n (stima di R), NY / n - R (errore) e (NY /1.

Inferenza nel modello ipergeometrico

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn3.html (1 di 4) [22/11/2001 17.54.10]

Page 384: Laboratorio virtuale di probabilità e statistica

n - R)2 (errore quadratico).

Calcola l'errore medio e l'errore quadratico medio per le 100 replicazioni.2.

Calcola la radice quadrata dell'errore quadratico medio e confronta tale valore,ricavato empiricamente, con la varianza dell'esercizio 2.

3.

5. Supponi che, da una scatola di 100 chip di memoria, se ne estraggano a caso esenza reinserimento 10. I chip vengono provati e 2 risultano difettosi. Stima il numero dichip difettosi nell'intera scatola.

6. Un comune ha 5000 elettori. Supponi che se ne scelgano a caso 100 e che,intervistati, 40 preferiscano il candidato A. Stima il numero di elettori del comune chepreferiscono A.

Campioni per accettazione

A volte non siamo interessati alla stima di R, ma a determinare se R raggiunge o superaun certo valore critico C. Questa situazione si presenta in particolare per i campioni peraccettazione. Supponiamo di avere una popolazione di unità buone o difettose. Se ilnumero di unità difettose R è maggiore o uguale a C (il valore critico), allora rifiutiamol'intero lotto. Testare tutte le unità è costoso e distruttivo, per cui dobbiamo testare uncampione casuale di n unità (ovviamente estratte senza reinseirmento) e basare la nostradecisione di accettare o rifiutare il lotto sul numero di unità difettose nel campione.Chiaramente, l'unico approccio ragionevole è scegliere un nuovo valore critico c erifiutare il lotto se il numero di unità difettose nel campione è maggiore o uguale a c. Intermini statistici, abbiamo descritto un test di ipotesi.

Nei seguenti esercizi, poni N = 100 e C = 10. Rifiutiamo il lotto di 100 unità se il numerodi unità difettose R è 10 o più. Supponiamo di poterci permettere al massimo di verificaren = 10 unità.

Analizziamo in primo luogo il test seguente: Rifiutare il lotto se il numero di unitàdifettose del campione è almeno 1.

7. Per ciascuno dei seguenti valori di R (il numero "vero" di unità difettose), trova laprobabilità di prendere la decisione corretta e quella di prendere la decisione sbagliata:

R = 61.

R = 82.

R = 103.

R = 124.

R = 145.

8. Nell'esperimento delle palline nell'urna, seleziona l'estrazione senza reinserimento eponi N = 100 e n = 10. Per ciascuno dei valori di R proposti nell'esercizio 7, simula 1000replicazioni, aggiornando ogni 100. Calcola la frequenza relativa dei rifiuti e confrontalacon la probabilità trovata nell'esercizio 7.

Inferenza nel modello ipergeometrico

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn3.html (2 di 4) [22/11/2001 17.54.10]

Page 385: Laboratorio virtuale di probabilità e statistica

Analizziamo ora il test seguente: Rifiutare il lotto se il numero di unità difettose delcampione è almeno 2.

9. Per ciascuno dei seguenti valori di R (il numero "vero" di unità difettose), trova laprobabilità di prendere la decisione corretta e quella di prendere la decisione sbagliata:

R = 61.

R = 82.

R = 103.

R = 124.

R = 145.

10. Nell'esperimento delle palline nell'urna, seleziona l'estrazione senza reinserimentoe poni N = 100 e n = 10. Per ciascuno dei valori di R proposti nell'esercizio 9, simula1000 replicazioni, aggiornando ogni 100. Calcola la frequenza relativa dei rifiuti econfrontala con la probabilità trovata nell'esercizio 9.

11. Dei due test appena visti,

Quale funziona meglio quando il lotto dovrebbe essere accettato (R < 10)?1.

Quale funziona meglio quando il lotto dovrebbe essere rifiutato (R 10)?2.

Stima di N con R noto

Supponiamo ora che il numero di unità di tipo 1 R sia noto e che la dimensione dellapopolazione N sia ignota. Come esempio di questo tipo di situazione, supponiamo diavere un lago contenente N pesci, con N ignoto. Catturiamo R pesci, li marchiamo e liributtiamo nel lago. Poi catturiamo di nuovo n pesci e osserviamo Y, numero di pescimarchiati nel campione. Vogliamo stimare N a partire da questi dati. In questo contesto, ilproblema della stima è detto a volte problema di cattura-ricattura.

12. Pensi che l'assunzione principale dell'esperimento delle palline e dell'urna, ovveroequiprobabilità dei campioni, sia soddisfatto in un problema reale di cattura e ricattura?Spiega perché.

Di nuovo, possiamo ricavare una stima di N sperando che la proporzione campionariadelle unità di tipo 1 sia prossima alla proporzione della popolazione di unità di tipo 1.Cioè

Y / n ~ R / N per N ~ nR / Y (se Y > 0).

Quindi, il nostro stimatore per N è nR / Y se Y > 0 ed è indefinito se Y = 0.

13. Nell'esperimento delle palline nell'urna, seleziona l'estrazione senza reinserimentoe poni N = 80, R = 30 e n = 20. Simula 100 replicazioni, aggiornando ogni volta

Per ciascuna replicazione, calcola nR / Y (stima di R), nR / Y - N (errore) e (nR / Y- N)2 (errore quadratico).

1.

Calcola l'errore medio e l'errore quadratico medio per le 100 replicazioni.2.

Inferenza nel modello ipergeometrico

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn3.html (3 di 4) [22/11/2001 17.54.10]

Page 386: Laboratorio virtuale di probabilità e statistica

Calcola la radice quadrata dell'errore quadratico medio. Tale valore è una stimaempirica dell'errore quadratico medio dello stimatore.

3.

14. In un certo lago si catturano 200 pesci, li si marchiano e li si ributtano nel lago.Poi si catturano 100 pesci e si vede che 10 di essi sono marchiati. Stima la popolazione dipesci nel lago.

15. Prova che, se k > 0, allora nR / k massimizza P(Y = k) in funzione di N per dati R en. Ciò significa che nR / Y è lo stimatore di massima verosimiglianza di N.

16. Usa la disuguaglianza di Jensen per mostrare che E(nR / Y) N.

Lo stimatore è quindi distorto e tende a sovrastimare N. Infatti, se n N - R, per cui P(Y= 0) > 0, E(nR / Y) è infinito.

17. Nell'esperimento delle palline e dell'urna, seleziona campionamento senzareinserimento e poni N = 100, R = 60 e n = 30. Simula 100 replicazioni, aggiornando ognivolta. Per ciascuna replicazione, calcola nR / Y, stima di N. Fai la media delle stime econfrontala con N.

Per un approccio diverso alla stima di N, vedi il paragrafo sulle statistiche d'ordine.

Estrazioni con reinserimento

Supponiamo ora che il campionamento sia con reinserimento, anche se ciò è pocorealistico in molte applicazioni pratiche. In questo caso, Y ha distribuzione binomiale conparametri n e R / N.

18. Prova che

E(N Y / n) = R.1.

var(N Y / n) = R (N - R) / n.2.

Quindi lo stimatore di R con N noto è sempre corretto, ma ha errore quadratico mediomaggiore. Pertanto il campionamento senza reinserimento funziona meglio, qualunquesiano i valori dei parametri, di quello con reinserimento.

Laboratorio virtuale > Modelli di campionamento finito > 1 2 [3] 4 5 6 7 8 9 10Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Inferenza nel modello ipergeometrico

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn3.html (4 di 4) [22/11/2001 17.54.10]

Page 387: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli di campionamento finito > 1 2 3 [4] 5 6 7 8 9 10

4. La distribuzione ipergeometrica multivariata

Supponiamo ora di avere una popolazione di più tipi, in cui ciascuna unità è di uno dei ktipi. Per esempio, possiamo avere un'urna con palline di diversi tipi, o una popolazione dielettori che possono essere democratici, repubblicani o indipendenti. Sia Di il sottinsiemedi tutte le unità di tipo i e sia Ni il numero di unità di tipo i, per i = 1, 2, ..., k. Quindi

D = D1 D2 ··· Dk e N = N1 + N2 + ··· + Nk.

Il modello dicotomico considerato in precedenza è ovviamente un caso particolare con k =2. Come nel modello di campionamento semplice, estraiamo a caso n unità da D:

X = (X1, X2, ..., Xn), dove Xi appartenente a D è l'i-esima unità estratta.

Sia ora Yi il numero di unità di tipo i nel campione, per i = 1, 2, ..., k. Notiamo che

Y1 + Y2 + ··· + Yk = n,

per cui se conosciamo i valori di k - 1 delle variabili conteggio, possiamo trovare il valoredella rimanente. Così come avviene per le altre variabili di conteggio, possiamo esprimereYi come somma di variabili indicatore:

1. Prova che Yi = Ii1 + Ii2 + ··· + Iin dove Iij = 1 se Xj appartiene a Di e Iij = 0altrimenti.

Per iniziare, possiamo assumere che le estrazioni avvengano senza reinserimento, poichési tratta del caso più realistico nella maggior parte delle applicazioni.

Distribuzioni

Per ricavare la densità congiunta delle variabili di conteggio si possono usare semplicirisultati di calcolo combinatorio. Ricordiamo che, poiché si estrae senza reinserimento, ilcampione non ordinato è distribuito uniformemente sulle conbinazioni di dimensione nestratte da D.

2. Mostra che, per interi nonnegativi j1, j2, ..., jk con j1 + j2 + ··· + jk = n,

P(Y1 = j1, Y2 = j2, ..., Yk = jk) = C(N1, j1)C(N2, j2) ··· C(Nk, jk) / C(N, n).

La distribuzione di (Y1, Y2, ..., Yk) è detta distribuzione ipergeometrica multivariata conparametri N, N1, N2, ..., Nk e n. Si dice anche che (Y1, Y2, ..., Yk - 1) ha tale distribuzione(ricordiamo di nuovo che k - 1 valori qualsiasi delle variabili individuano il valore dellarestante). Di solito è evidente dal contesto of quale significato dare a ciò. La distribuzioneipergeometrica ordinaria corrisponde a k = 2.

La distribuzione ipergeometrica multivariata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn4.html (1 di 5) [22/11/2001 17.54.17]

Page 388: Laboratorio virtuale di probabilità e statistica

3. Ricava la seguente formula alternativa della densità ipergeometrica multivariata indue modi: combinatorialmente, considerando il campione ordinato distribuitouniformemente sulle permutazioni di dimensione n estratte da D, e algebricamente, apartire dal risultato dell'esercizio 2.

P(Y1 = j1, Y2 = j2, ..., Yk = jk) = C(n; j1, j2, ..., jk) (N1)j1(N2)j2··· (Nk)jk / (N)n.

4. Prova che Yi ha distribuzione ipergeometrica con parametri N, Ni e n:

P(Yi = j) = C(Ni, j)C(N - Ni, n - j) / C(N, n) per j = 0, 1, ..., n.

La distribuzione ipergeometrica multivariata permane sotto combinazioni delle variabilidi conteggio. In particolare, supponiamo che A1, A2, ..., Al sia una partizione dell'insiemedegli indici {1, 2, ..., k} in sottinsiemi non vuoti. Per ogni j, sia Wj la somma degli Yisugli i in Aj e sia Mj la somma degli Ni sugli i in Aj.

5. Mostra che (W1, W2, ..., Wl) ha distribuzione ipergeometrica multivariata conparametri N, M1, M2, ..., Ml e n.

La distribuzione ipergeometrica multivariata permane anche quando alcune delle variabilidi conteggio sono note. In particolare, supponiamo che A, B sia una partizionedell'insieme di indici {1, 2, ..., k} in sottinsiemi non vuoti. Supponiamo di osservare Yj =yj per j appartenente a B. Sia z la somma degli yj sui j in B e sia M la somma degli Nisugli i in A.

6. Mostra che la distribuzione condizionata degli Yi, per i appartenenti ad A dati Yj =yj, per j appartenenti a B è ipergeometrica multivariata con parametri M, Ni, per iappartenente ad A e n - z.

Combinando i risultati degli esercizi 5 e 6 si possono calcolare le distribuzioni marginali ocondizionate delle variabili di conteggio.

Momenti

Vediamo ora come calcolare media, varianza, covarianza e correlazione delle variabili diconteggio. Gli strumenti principali che utilizzeremo sono i risultati relativi alladistribuzione ipergeometrica univariata e la rappresentazione in termini di variabiliindicatore.

7. Mostra che

E(Yi) = n Ni / N1.

var(Yi) = n (Ni / N)(1 - Ni / N) (N - n) / (N - 1)2.

8. Supponi che i e j siano distinti. Prova che

cov(Iir, Ijr) = -NiNj / N2 per r = 1, 2, ..., n.1.

La distribuzione ipergeometrica multivariata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn4.html (2 di 5) [22/11/2001 17.54.17]

Page 389: Laboratorio virtuale di probabilità e statistica

cov(Iir, Ijs) = -NiNj / [N2(N - 1)] per distinti r, s = 1, 2, ..., n.2.

9. Supponi che i e j siano distinti. Prova che

cor(Iir, Ijr) = -{NiNj / [(N - Ni)(N - Nj)]}1/2 per r = 1, 2, ..., n.1.

cor(Iir, Ijs) = {NiNj / [(N - Ni)(N - Nj)]}1/2 [1 / (N - 1)] per distinti r, s = 1, 2, ..., n.2.

In particolare, Iir, Ijr sono negativamente correlati per i e j distnti e per qualsiasi valore di re s. Ti sembra ragionevole?

10. Usa il risultato degli esercizi 7 e 8 per mostrare che, per i e j distinti,

cov(Yi, Yj) = -(nNiNj / N2)[(N - n) / (N - 1)]1.

cor(Yi, Yj) = -{NiNj / [(N - Ni)(N - Nj)]}1/2.2.

Estrazioni con reinserimento

Supponiamo ora che le estrazioni avvengano con reinserimento, anche se questaassunzione è spesso poco realistica nelle applicazioni reali.

11. Mostra che il tipo di unità del campione forma una sequenza di n provemultinomiali con parametri N1 / N, N2 / N, ..., Nk / N.

I seguenti risultati discendono immediatamente dalla teoria generale delle provemultinomiali, anche se si possono usare dimostrazioni diverse.

12. Prova che (Y1, Y2, ..., Yk) ha distribuzione multinomiale con parametri n e N1 / N,N2 / N, ..., Nk / N: per interi non negativi j1, j2, ..., jk con j1 + j2 + ··· + jk = n,

P(Y1 = j1, Y2 = j2, ..., Yk = jk) = C(n; j1, j2, ..., jk) N1j1N2

j2··· Nkjk / Nn.

13. Mostra che

E(Yi) = n Ni / N.1.

var(Yi) = n (Ni / N)(1 - Ni / N).2.

cov(Yi, Yj) = -(nNiNj / N2) per i e j distinti.3.

cor(Yi, Yj) = -{NiNj / [(N - Ni)(N - Nj)]}1/2 per i e j distinti.4.

Convergenza dell'ipergeometrica multivariata alla multinomiale

Supponiamo che la dimensione della popolazione N sia molto grande rispetto alladimensione del campione n. In questo caso, sembra ragionevole che il campionamentosenza reinserimento non sia troppo diverso da quello con reinserimento, e che quindi ladistribuzione ipergeometrica multivariata possa essere approssimata con la multinomiale.L'esercizio seguente precisa meglio questa osservazione. Si tratta di un risultato moltoutile nella pratica, poiché in molti casi non si conosce con precisione l'ampiezza dellapopolazione.

La distribuzione ipergeometrica multivariata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn4.html (3 di 5) [22/11/2001 17.54.17]

Page 390: Laboratorio virtuale di probabilità e statistica

14. Supponi che Ni dipenda da N e che

Ni / N pi in [0, 1] per N for i = 1, 2, ..., k.

Prova che, per dato n, la funzione di densità ipergeometrica multivariata con parametri N,N1, N2, ..., Nk, e n converge alla funzione di densità multinomiale con parametri n e p1,p2..., pk. Suggerimento: Usa la rappresentazione dell'esercizio 3.

Problemi computazionali

15. Supponi che si estragga casualmente da un mazzo standard di 52 carte una manodi bridge (13 carte). Trova la probabilità che la mano contenga

4 carte di cuori.1.

4 carte di cuori e 3 di picche.2.

4 carte di cuori, 3 di picche e 2 di fiori3.

7 carte rosse e 6 carte nere.4.

16. Supponi che si estragga casualmente da un mazzo standard di 52 carte una manodi bridge (13 carte). Trova

Media e varianza del numero di carte di cuori.1.

Covarianza tra numero di carte di cuori e di picche.2.

Correlazione tra numero di carte di cuori e di picche.3.

17. Una popolazione di 100 elettori è formata da 40 repubblicani, 35 democratici e 25indipendenti. Si estrae un campione di 10 elettori

Trova la probabilità che il campione contenga almeno 4 repubblicani, 3 democraticie 2 indipendenti.

1.

Trova l'approssimazione multinomiale alla probabilità in (a).2.

18. Supponi che si estragga casualmente da un mazzo standard di 52 carte una manodi bridge (13 carte). Trova la probabilità condizionata che la mano contenga

4 cuori e 3 picche dati 4 fiori.1.

4 cuori dati 3 picche e 2 fiori.2.

Vuoti

Nell'esperimento delle carte, una mano che non contiene carte di un certo seme è dettavuota in tale seme.

19. Usa la regola di inclusione-esclusione per mostrare che la probabilità che una manodi poker sia vuota in almeno un seme è

1913496 / 2598960 ~ 0.736.

La distribuzione ipergeometrica multivariata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn4.html (4 di 5) [22/11/2001 17.54.17]

Page 391: Laboratorio virtuale di probabilità e statistica

20. Nell'esperimento delle carte, poni n = 5. Simula 1000 replicazioni, aggiornandoogni volta. Calcola la frequenza relativa dell'evento in cui la mano sia vuota in almeno unseme e confrontala con la probabilità trovata nell'esercizio 10.

21. Usa la regola di inclusione-esclusione per mostrare che la probabilità che una manodi bridge sia vuoa in almeno un seme è

32427298180 / 635013559600 ~ 0.051.

Laboratorio virtuale > Modelli di campionamento finito > 1 2 3 [4] 5 6 7 8 9 10Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione ipergeometrica multivariata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn4.html (5 di 5) [22/11/2001 17.54.17]

Page 392: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli di campionamento finito > 1 2 3 4 5 6 7 8 [9] 10

9. Il problema del collezionista

Concetti preliminari

L'esperimento casuale consiste nel campionare ripetutamente, con reinserimento, dallapopolazione D = {1, 2, ..., N}. Si genera così una sequenza di variabili casualiindipendenti, ciascuna con distribuzione uniforme su D:

X1, X2, X3, ...

Interpretiamo questo tipo di campionamento come una collezione di figurine: ogni voltache il collezionista compra un certo prodotto (gomme da masticare o cereali, peresempio), riceve una figurina o un giocattolo, equiprobabilmente uno degli N tipi. Quindi,in questo contesto, Xi è il tipo di figurina che si trova all'i-esimo acquisto.

Sia VN, n il numero di valori distinti nelle prime n estrazioni, cioè la variabile casuale cheabbiamo visto nel paragrafo precedente. In questo paragrafo ci interessiamo alladimensione campionaria necessaria per avere k valori distinti:

WN, k = min{n: VN, n = k}, k = 1, 2, ..., N.

In termini del collezionista, tale variabile casuale indica il numero di acquisti necessariper avere k tipi di figurine diverse. Notiamo che i valori possibili di WN, k sono k, k + 1, k+ 2, .... Siamo particolarmente interessati a WN,N, cioè la dimensione campionarianecessaria per ottenere l'intera popolazione. In termini del collezionista, ciò rappresenta ilnumero di prodotti necessario per avere l'insieme completo di figurine.

1. Nell'esperimento del collezionista, poni N = 50 e modifica k. Osserva forma eposizione del grafico di densità. Con k = 20, esegui l'esperimento passo per passo un paiodi volte e osserva i risultati. Simula poi 1000 replicazioni, aggiornando ogni 10, e osservala convergenza delle frequenze relative alla distribuzione "vera".

La funzione di densità

Troviamo ora la distribuzione di WN, k. Ci saranno d'aiuto i risultti del paragrafoprecedente

2. Dimostra che

WN, k = n se e solo se VN, n - 1 = k - 1 and VN, n = k.

3. Usa l'esercizio 2 e la probabilità condizionata per provare che

P(WN, k = n) = P(VN, n - 1 = k - 1)(N - k + 1) / N.

Il problema del collezionista

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn9.html (1 di 3) [22/11/2001 17.54.24]

Page 393: Laboratorio virtuale di probabilità e statistica

4. Usa il risultato dell'esercizio precedente e la distribuzione di VN, n - 1 individuata nelparagrafo precedente per mostrare che n = k, k + 1, ...,

P(WN,k = n) = C(N - 1, k - 1) j = 0, ..., k - 1 (-1)j C(k - 1, j)[(k - 1 - j) / N]n - 1.

5. Nell'esperimento del collezionista, poni N = 100 e modifica k. Osserva forma eposizione del grafico di densità. Con k = 50, esegui l'esperimento passo per passo un paiodi volte e osserva i risultati. Simula poi 1000 replicazioni, aggiornando ogni 10, e osservala convergenza delle frequenze relative alla funzione di densità.

6. Supponi che dei soggetti vengano selezionati a caso finché non si ottengono 10distinte settimane di nascita. Trova la probabilità che si estraggano al più 12 persone.

7. Supponi di lanciare un dado equilibrato finché non sono usciti tutti e 6 i punteggi.Trova la probabilità di tirare meno di 10 volte.

8. Le scatole di una certa marca di cereali contengono un pupazzo di 10 tipi diversi.Trova la probabilità di trovarli tutti acquistando al più 15 scatole.

Momenti

Mostreremo ora come WN, k possa essere scompsta in una somma di k variabiliindipendenti e con distribuzione geometrica. Ciò spiega meglio la natura delladistribuzione e rende più semplice il calcolo di media e varianza.

Per i = 1, 2, ... N, sia Zi il numero di valori campionari necessari per passare da i - 1 a ivalori distinti.

9. Dimostra che

Z1, Z2, ..., ZN sono indipendenti.1.

Zi ha distribuzione geometrica con parametro pi = (N - i + 1) / N.2.

WN, k = Z1 + Z2 + ··· + Zk.3.

L'esercizio 9 mostra che, una volta ottenuta una figurina, diventa più difficile ottenere laseguente.

10. Nell'esperimento del collezionista, poni N = 50 e modifica k. Osserva forma eposizione del grafico di densità. Con k = 25, esegui l'esperimento passo per passo un paiodi volte e osserva i risultati. Simula poi 1000 replicazioni, aggiornando ogni 10, e osservala convergenza delle statistiche campionarie ai parametri della distribuzione.

11. Usa il risultato dell'esercizio 9 per mostrare che

E(WN, k) = i = 1, ..., k N / (N - i + 1).1.

Il problema del collezionista

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn9.html (2 di 3) [22/11/2001 17.54.24]

Page 394: Laboratorio virtuale di probabilità e statistica

var(WN, k) = i = 1, ..., k (i - 1)N / (N - i + 1)2.2.

12. Calcola media e deviazione standard del numero di persone che devono esserescelte per avere 10 settimane di nascita distinte.

13. Calcola media e deviazione standard del numero di volte che un dado dev'esserelanciato per avere tutti e sei i punteggi.

14. Le scatole di una certa marca di cereali contengono un pupazzetto di 10 tipidiversi. Trova media e deviazione standard del numero di scatole che si devono acquistareper avere la collezione completa di pupazzi.

15. Calcola media e deviazione standard del numero di persone che devono esserescelte per avere compleanni tutti e 365 i giorni dell'anno.

16. Nell'esperimento del collezionista, poni N = 10 e modifica k. Osserva forma eposizione del grafico di densità. Con k = 10, esegui l'esperimento passo per passo un paiodi volte e osserva i risultati. Simula poi 1000 replicazioni, aggiornando ogni 10, e osservala convergenza delle statistiche campionarie ai parametri della distribuzione.

17. Usa il risultato dell'esercizio 9 per mostrare che la funzione generatrice diprobabilità di WN, k è

GN, k(t) = tk i = 1, ..., k [N - (i - 1)] / [N - (i - 1)t] for |t| < N / (k - 1).

Relazione ricorsiva

Un approccio alternativo alla distribuzione della dimensione campionaria necessaria peravere k valori distinti è tramite una formula ricorsiva.

18. Sia cN, k(n) = P(WN, k = n) per n = k, k + 1, .... Usa la probabilità condizionata permostrare che

cN, k(n + 1) = [(k - 1) / N]cN, k(n) + [(N - k + 1) / N]cN, k - 1(n).

Laboratorio virtuale > Modelli di campionamento finito > 1 2 3 4 5 6 7 8 [9] 10Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Il problema del collezionista

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn9.html (3 di 3) [22/11/2001 17.54.24]

Page 395: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli di campionamento finito > 1 2 3 4 5 6 7 8 9 [10]

10. Note conclusive

Simulazione dei campioni casuali

È molto semplice simulare un campione casuale di dimensione n con reinserimento da D= {1, 2, ..., N}. Ricorda che la funzione ceil(x) dà il minore intero maggiore di x.

1. Sia Ui un numero casuale per i = 1, 2, ..., n. Prova che Xi = ceil(NUi), i = 1, 2, ..., nsimula un campione casuale con reinserimento da D.

È un po' più difficile simulare un campione di dimensione n, senza reinserimento, poichédobbiamo rimuovere il valore estratto prima di ogni estrazione successiva.

2. Prova che l'algoritmo seguente genera un campione casuale di dimensione n, senzareinserimento, da D.

Per i = 1 a N, sia bi = i.Per i = 1 a n,sia j = N – i + 1;sia Ui = numero casuale;sia J = ceil(j Ui);sia Xi = bJ;sia k = bj;sia bj = bJ;sia bJ = k.Restituisci (X1, X2, ..., Xn).

Argomenti correlati

Il campionamento con reinserimento (o campionamento da popolazione infinita) dàvariabili casuali indipendenti e identicamente distribuite. Il capitolo sui campionicasuali studia in generale variabili di tale tipo.

I giochi di carte sono basati su estrazioni senza reinserimento; i giochi di dadi suestrazioni con reinserimento. Il capitolo sui giochi presenta alcuni risultati in questosenso.

Le prove multinomiali sono basate sul campionamento con reinserimento da unapopolazione di più tipi.

Il problema della stima dei parametri a partire da un campione casuale è analizzatonel capitolo sulla stima puntuale.

Libri

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn10.html (1 di 5) [22/11/2001 17.54.39]

Page 396: Laboratorio virtuale di probabilità e statistica

Il miglior riferimento sulla probabilità combinatoria resta forse il classico AnIntroduction to Probability Theory and its Applications, di William Feller.

Un numero incredibile di problemi di probabilità possono essere formulati intermini di esperimenti di palline e urne. Il rfierimento migliore per questa teoria èUrn Models and Their Application di Johnson e Kotz.

Risposte agli esercizi del paragrafo 1

1.17.

1 / 41.

1 / 2212.

4 / 173.

1 / 524.

1.19. 0.000547

Risposte agli esercizi del paragrafo 2

2.15. Y = numero di chip difettosi nel campione

P(Y = k) = C(10, k) C(90, 5 - k) / C(100, 5) per k = 0, 1, 2, 3, 4, 5.1.

E(Y) = 0.5, var(Y) = 0.4322.

P(Y > 0) = 0.4163.

2.16. Y = numero di donne, Z = 10 - Y = numero di uomini

E(Y) = 6, var(Y) = 1.9591.

E(Z) = 4, var(Z) = 1.9592.

P(Y = 0) + P(Y = 10) = 0.002943.

2.22. Y = numero di pesci marchiati nel campione

P(Y 2) = 0.61081.

P(Y 2) = 0.60832.

Errore relativo: 0.0042.3.

2.23. 0.6331

Risposte agli esercizi del paragrafo 3

3.5. 20

3.6. 2000

3.7.

R Corretto Sbagliato

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn10.html (2 di 5) [22/11/2001 17.54.39]

Page 397: Laboratorio virtuale di probabilità e statistica

6 0.523 0.4788 0.417 0.58310 0.670 0.33012 0.739 0.26114 0.795 0.205

3.9.

R Corretto Sbagliato6 0.890 0.1098 0.818 0.18210 0.262 0.73212 0.343 0.65714 0.424 0.526

3.11.

Rifiuta il lotto se Y 2.1.

Rifiuta il lotto se Y 1.2.

3.14. 2000

Risposte agli esercizi del paragrafo 4

4.15.

0.23861.

0.07412.

0.01803.

0.23854.

4.16.

3.251.

1.8642.

-0.62133.

-1 / 34.

4.17.

0.23701.

0.21682.

4.18.

0.07531.

0.31092.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn10.html (3 di 5) [22/11/2001 17.54.39]

Page 398: Laboratorio virtuale di probabilità e statistica

Risposte agli esercizi del paragrafo 5

5.6.

P(X(3) = k) = C(k - 1, 2) C(25 - k, 2) / C(25, 5) per k = 3, 4, ..., 221.

E(X(3)) = 132.

var(X(3)) = 125 / 7.3.

5.17. 1437

5.19. 2322

Risposte agli esercizi del paragrafo 6

6.5. 1,334,961

6.9.

k 0 1 2 3 4 5b5(k) 44 45 20 10 0 1

6.12.

k 0 1 2 3 4 5P(N5 = k) 0.3667 0.3750 0.1667 0.0833 0 0.0083

6.22.

1 / 1001.

1 / 162.

Risposte agli esercizi del paragrafo 7

7.5. 0.6029

7.7. 0.2778

7.9. 0.6181

7.11. 0.3024

7.14. 9

Risposte agli esercizi del paragrafo 8

8.9. 0.3041

8.11. 0.2218

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn10.html (4 di 5) [22/11/2001 17.54.39]

Page 399: Laboratorio virtuale di probabilità e statistica

8.14. 0.3415

8.16. 0.3174

8.20. 87.576, 2.942

8.21. 22.952, 1.826

8.21. 9.894, 1.056

8.25. Sia V il numero di risposte distinte.

j 1 2 3P(V = j) 1/16 9/16 6/16

1.

P(V = 1) = 1/162.

E(V) = 37/163.

sd(V) = 0.68304.

8.25. Sia V il numero di oche uccise.

j 1 2 3 4 5P(V = j) 1/10000 927/2000 9/50 63/127 189/625

1.

E(V) = 4.0952.

sd(V) = 0.7273.

Risposte agli esercizi del paragrafo 9

9.6. 0.9104

9.7. 0.8110

9.8. 0.0456

9.12. 10.988, 1.130

9.13. 14.700, 6.244

9.14. 29.290, 11.211

9.15. 2364.646, 456.207

Laboratorio virtuale > Modelli di campionamento finito > 1 2 3 4 5 6 7 8 9 [10]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/urn/urn10.html (5 di 5) [22/11/2001 17.54.39]

Page 400: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Giochi di fortuna > 1 2 3 [4] 5 6 7 8

4. Craps

Craps è un gioco popolare nei casinò grazie alla sua complessità e alla ricca varietà di puntateche si possono fare. Una tavola da craps tipica è mostrata nella figura seguente:

Secondo Richard Epstein, craps discende da un gioco precedente detto Hazard, che risale almedioevo. Le regole di Hazard vennero precisate formalmente da Montmort all'inizio del 1700.L'origine del nome craps è dubbia, ma può derivare dall'inglese crabs (granchi) o dal franceseCrapeaud (rospo).

Dal punto di vista formale, craps è interessante perché costituisce un esempio di esperimentocasuale in fasi distinte; l'evoluzione del gioco dipende dall'esito del primo lancio. In particolare,il numero di lanci è una variabile casuale.

Definizione del gioco

Le regole di craps sono le seguenti: il giocatore (detto tiratore) lancia due dadi equilibrati

Se la somma è 7 o 11 al primo lancio, il tiratore ha vinto; tale evento è detto natural.1.

Se la somma è 2, 3, o 12 al primo lancio, il tiratore ha perso; tale evento è detto craps.2.

Se la somma è 4, 5, 6, 8, 9, o 10 al primo lancio, tale numero è il punteggio del tiratore. Iltiratore continua a tirare i dadi finché esce di nuovo il punteggio (nel qual caso vince) oesce 7 (nel qual caso perde).

3.

Finché il giocatore vince o perde tirando craps, tiene i dadi e continua a tirare. Una volta che

Craps

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games4.html (1 di 6) [22/11/2001 17.54.49]

Page 401: Laboratorio virtuale di probabilità e statistica

perde non riuscendo a fare il punteggio, si passano i dadi al tiratore seguente.

Consideriamo il gioco in termini più formali. L'assunzione di base è ovviamente che i dadi sianoequilibrati e che gli esiti dei vari lanci siano indipendenti. Sia N il numero di lanci effettuato e sia(Xi, Yi) l'esito dell'i-esimo lancio per i = 1, 2, ..., N. Infine, sia Zi = Xi + Yi, la somma deipunteggi all'i-esimo lancio, e sia I la variabile indicatore della vittoria del giocatore.

1. Nell'applet craps, esegui un paio di volte l'esperimento e osservane gli esiti. Assicurati diaver capito bene le regole del gioco.

La probabilità di vittoria

Calcoliamo la probabilità che il tiratore vinca in più fasi, basandoci sull'esito del primo lancio.

2. Prova che Z1 ha la funzione di densità di probabilità riportata nella tabella seguente:

z 2 3 4 5 6 7 8 9 10 11 12

P(Z1 = z) 1 / 36 2 / 36 3 / 36 4 / 36 5 / 36 6 / 36 5 / 36 4 / 36 3 / 36 2 / 31 1 / 36

La probabilità che il giocatore tiri il punteggio può essere calcolata utilizzando ilcondizionamento. Per esempio, supponiamo che il giocatore tiri un 4, per cui 4 è il punteggio. Ilgiocatore continua a tirare finché non esce un 4 o un 7. Il lancio finale è quindi uno dei seguenti:

(1, 3), (2, 2), (3, 1), (1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1).

Poiché i dadi sono equilibrati, i risultati sono equiprobabili, pertanto la probabilità che ilgiocatore faccia il punteggio 4 è 3 / 9). Un'argomento simile può essere utilizzato per gli altripunti. I risultati sono presentati nell'esercizio seguente.

3. Prova che la probabilità di fare il punteggio z sono quelle riportate nella tabella seguente:

z 4 5 6 8 9 10P(I = 1 | Z1 = z) 3 / 9 4 / 10 5 / 11 5 / 11 4 / 10 3 / 9

4. Usa i risultati degli esercizi 1 e 3 per mostrare che

P(I = 1) = 244 / 495 ~ 0.492921.

P(I = 0) = 251 / 495 ~ 0.507072.

Notiamo che craps è un gioco quasi equilibrato.

Puntate

Nel gioco del craps vi è un'incredibile varietà di puntate. Negli esercizi seguenti presenteremoalcune puntate tipiche e calcoleremo le loro densità, media e deviazione standard. (La maggiorparte di tali puntate sono evidenziate nella figura del tavolo da craps presentata sopra). Notiamo,in ogni caso, che alcuni dei dettagli delle puntate e in particolare gli odds variano da casinò acasinò. Ovviamente il valore atteso di ogni puntata è inevitabilmente negativo (per il giocatore),per cui il giocatore è destinato a perdere, nel lungo termine. Tuttavia, come vedremo, alcunepuntate sono migliori di altre.

Una puntata pass punta sul fatto che il tiratore vinca e paga 1:1.

Craps

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games4.html (2 di 6) [22/11/2001 17.54.49]

Page 402: Laboratorio virtuale di probabilità e statistica

5. Sia W la vincita di una puntata pass unitaria. Mostra che

P(W = -1) = 251 / 495, P(W = 1) = 244 / 495.1.

E(W) = -0.0141.2.

sd(W) = 0.9999.3.

6. Nell'applet craps, seleziona la puntata pass. Simula 1000 replicazioni, aggiornando ogni 10,e osserva la convergenza della densità empirica e dei momenti di W ai loro valori teorici.Supponi di puntare 1$ per ogni replicazione. A quanto ammonterebbe la tua vincita netta?

Una puntata don't pass punta sul fatto che il tiratore perda, a parte il fatto che il 12 al primolancio è escluso (cioè, il tiratore perde, ma chi ha puntato su don't pass non vince né perde). Taleè il significato della frase don't pass bar double 6 sul tavolo da craps. Anche la puntata don't passpaga 1:1.

7. Sia W la vincita di una puntata don't pass unitaria. Mostra che

P(W = -1) = 244 / 495, P(W = 0) = 1 / 36, P(W = 1) = 949 / 1980.1.

E(W) = -0.01363.2.

sd(W) = 0.9859.3.

8. Nell'applet craps, seleziona la puntata don't pass. Simula 1000 replicazioni, aggiornandoogni 10, e osserva la convergenza della densità empirica e dei momenti di W ai loro valoriteorici. Supponi di puntare 1$ per ogni replicazione. A quanto ammonterebbe la tua vincitanetta?

Le puntate come e don't come sono analoghe a pass e don't pass, ma vengono fatte dopo averstabilito il punteggio.

Una puntata field è relativa all'esito del tiro successivo. Paga 1:1 se esce 3, 4, 9, 10, o 11, 2:1 seesce 2 o 12 e perde altrimenti.

9. Sia W la vincita di una puntata field unitaria. Mostra che

P(W = -1) = 5 / 9, P(W = 1) = 7 / 18, P(W = 2) = 1 / 18.1.

E(W) = -0.05562.

sd(W) = 1.07873.

10. Nell'applet craps, seleziona la puntata field. Simula 1000 replicazioni, aggiornando ogni10, e osserva la convergenza della densità empirica e dei momenti di W ai loro valori teorici.Supponi di puntare 1$ per ogni replicazione. A quanto ammonterebbe la tua vincita netta?

Una puntata 7 è relativa all'esito del lancio successivo. Paga 4:1 se esce un 7 e perde altrimenti.Similmente, una puntata 11 paga 15:1 se esce 11. Nonostante la cabalistica del numero 7,mostreremo nel prossimo esercizio che la puntata 7 è una delle peggiori.

11. Sia W la vincita di una puntata 7 unitaria. Mostra che

P(W = -1) = 5 / 6, P(W = 4) = 1 / 6.1.

E(W) = -0.1667.2.

sd(W) = 1.8634.3.

12. Nell'applet craps, seleziona la puntata 7. Simula 1000 replicazioni, aggiornando ogni 10, e

Craps

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games4.html (3 di 6) [22/11/2001 17.54.49]

Page 403: Laboratorio virtuale di probabilità e statistica

osserva la convergenza della densità empirica e dei momenti di W ai loro valori teorici. Supponidi puntare 1$ per ogni replicazione. A quanto ammonterebbe la tua vincita netta?

13. Sia W la vincita di una puntata 11 unitaria. Mostra che

P(W = -1) = 17 / 18, P(W = 15) = 1 / 18.1.

E(W) = -0.11112.

sd(W) = 3.6650;3.

14. Nell'applet craps, seleziona la puntata 11. Simula 1000 replicazioni, aggiornando ogni 10,e osserva la convergenza della densità empirica e dei momenti di W ai loro valori teorici.Supponi di puntare 1$ per ogni replicazione. A quanto ammonterebbe la tua vincita netta?

Tutte le puntate craps sono relative al tiro successivo. Pagano 7:1 se esce 2, 3 o 12 e perdonoaltrimenti. Similmente, la craps 12 paga 30:1 se esce un 12 e perde altrimenti. Infine, la craps 3paga 15:1 se esce 3 e perde altrimenti

15. Sia W la vincita di una puntata craps unitaria. Mostra che

P(W = -1) = 8 / 9, P(W = 7) = 1 / 9.1.

E(W) = -0.1111.2.

sd(W) = 2.51423.

16. Nell'applet craps, seleziona la puntata craps. Simula 1000 replicazioni, aggiornando ogni10, e osserva la convergenza della densità empirica e dei momenti di W ai loro valori teorici.Supponi di puntare 1$ per ogni replicazione. A quanto ammonterebbe la tua vincita netta?

17. Sia W la vincita di una puntata craps 2 o craps 12 unitaria. Mostra che

P(W = -1) = 35 / 36, P(W = 30) = 1 / 36.1.

E(W) = -0.1389.2.

sd(W) = 5.0944.3.

18. Nell'applet craps, seleziona la puntata craps 2. Simula 1000 replicazioni, aggiornandoogni 10, e osserva la convergenza della densità empirica e dei momenti di W ai loro valoriteorici. Supponi di puntare 1$ per ogni replicazione. A quanto ammonterebbe la tua vincitanetta?

19. Nell'applet craps, seleziona la puntata craps 12. Simula 1000 replicazioni, aggiornandoogni 10, e osserva la convergenza della densità empirica e dei momenti di W ai loro valoriteorici. Supponi di puntare 1$ per ogni replicazione. A quanto ammonterebbe la tua vincitanetta?

20. Sia W la vincita di una puntata craps 3 unitaria. Mostra che

P(W = -1) = 17 / 18, P(W = 15) = 1 / 18.1.

E(W) = -0.11112.

sd(W) = 3.6650.3.

21. Nell'applet craps, seleziona la puntata craps 3. Simula 1000 replicazioni, aggiornandoogni 10, e osserva la convergenza della densità empirica e dei momenti di W ai loro valoriteorici. Supponi di puntare 1$ per ogni replicazione. A quanto ammonterebbe la tua vincita

Craps

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games4.html (4 di 6) [22/11/2001 17.54.49]

Page 404: Laboratorio virtuale di probabilità e statistica

netta?

La puntata big 6 scommette che 6 esca prima di 7. Similmente, la puntata big 8 scommette che 8esca prima di 7. Entrambe pagano alla pari (1:1).

22. Sia W la vincita di una puntata big 6 o big 8 unitaria. Mostra che

P(W = -1) = 6 / 11, P(W = 1) = 5 / 11.1.

E(W) = -0.09092.

sd(W) = 0.99593.

23. Nell'applet craps, seleziona la puntata big 6. Simula 1000 replicazioni, aggiornando ogni10, e osserva la convergenza della densità empirica e dei momenti di W ai loro valori teorici.Supponi di puntare 1$ per ogni replicazione. A quanto ammonterebbe la tua vincita netta?

24. Nell'applet craps, seleziona la puntata big 8. Simula 1000 replicazioni, aggiornando ogni10, e osserva la convergenza della densità empirica e dei momenti di W ai loro valori teorici.Supponi di puntare 1$ per ogni replicazione. A quanto ammonterebbe la tua vincita netta?

Una puntata hardway può essere fatta sui numeri 4, 6, 8 o 10. Scommette che il numero scelto nesca "a metà" cioè (n / 2, n / 2), prima che esca 7 e prima che il numero scelto esca in qualchealtra combinazione. Le puntate sul 4 e sul 10 pagano 7:1 e quelle sul 6 e l'8 9:1.

25. Sia W la vincita di una puntata hardway 4 o hardway 10 unitaria. Mostra che

P(W = -1) = 8 / 9, P(W = 7) = 1 / 9.1.

E(W) = -0.1111.2.

sd(W) = 2.51423.

26. Nell'applet craps, seleziona la puntata hardway 4. Simula 1000 replicazioni, aggiornandoogni 10, e osserva la convergenza della densità empirica e dei momenti di W ai loro valoriteorici. Supponi di puntare 1$ per ogni replicazione. A quanto ammonterebbe la tua vincitanetta?

27. Nell'applet craps, seleziona la puntata hardway 10. Simula 1000 replicazioni, aggiornandoogni 10, e osserva la convergenza della densità empirica e dei momenti di W ai loro valoriteorici. Supponi di puntare 1$ per ogni replicazione. A quanto ammonterebbe la tua vincitanetta?

28. Sia W la vincita di una puntata hardway 6 o hardway 8 unitaria. Mostra che

P(W = -1) = 10 / 11, P(W = 9) = 1 / 11.1.

E(W) = -0.09092.

sd(W) = 2.87483.

29. Nell'applet craps, seleziona la puntata hardway 6. Simula 1000 replicazioni, aggiornandoogni 10, e osserva la convergenza della densità empirica e dei momenti di W ai loro valoriteorici. Supponi di puntare 1$ per ogni replicazione. A quanto ammonterebbe la tua vincitanetta?

30. Nell'applet craps, seleziona la puntata hardway 8. Simula 1000 replicazioni, aggiornandoogni 10, e osserva la convergenza della densità empirica e dei momenti di W ai loro valori

Craps

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games4.html (5 di 6) [22/11/2001 17.54.49]

Page 405: Laboratorio virtuale di probabilità e statistica

teorici. Supponi di puntare 1$ per ogni replicazione. A quanto ammonterebbe la tua vincitanetta?

La distribuzione del numero di lanci

Calcoliamo ora la distribuzione e i momenti del numero di lanci N in una partita di craps. Talevariabile casuale non è di interesse particolare per il casinò o i giocatori, ma costituisce un buonesercizio. Per definizione, se il tiratore vince o perde al primo tiro, N = 1. Altrimenti il tiratorecontinua finché non fa il punteggio o tira 7. In quest'ultimo caso, possiamo utilizzare ladistribuzione geometrica, che indica il numero di prova a cui si verifica il primo successo in unasequenza di prove Bernoulliane.

31. Mostra che P(N = 1 | Z1 = z) = 1 if z = 2, 3, 7, 11, 12.

32. Mostra che P(N = n | Z1 = z) = p(1 - p)n - 2 per n = 2, 3, 4, ... per i valori di z e p indicatinella tabella seguente. La distribuzione condizionata di N - 1 dato Z1 = z è quindi geometrica conparametro p.

z 4 5 6 8 9 10p 9 / 36 10 / 36 11 / 36 11 / 36 10 / 36 9 / 36

La distribuzione di N è una mistura.

33. Usa il risultato dell'esercizio precedente per mostrare che

P(N = 1) = 12 / 36.1.

P(N = n) = (1 / 24)(3 / 4)n - 2 + (5 / 81)(13 / 18)n - 2 + (55 / 648)(25 / 36)n - 2 per n = 2, 3, ...2.

34. Semplifica numericamente per trovare i primi valori della funzione di densità diprobabilità di N:

n 1 2 3 4 5P(N = n) 0.33333 0.18827 0.13477 0.09657 0.06926

35. Trova la probabilità che il gioco duri più di 8 lanci.

36. Usa il condizionamento e i momenti della distribuzione geometrica per mostrare che

E(N) = 3.37581.

E(N2) = 15.0013.2.

var(N) = 3.6056.3.

sd(N) = 1.8988.4.

Laboratorio virtuale > Giochi di fortuna > 1 2 3 [4] 5 6 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Craps

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games4.html (6 di 6) [22/11/2001 17.54.49]

Page 406: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Prove Bernoulliane > [1] 2 3 4 5 6 7

1. Introduzione

Prove Bernoulliane

Il processo di Bernoulli, così detto in onore di James Bernoulli, è uno dei più semplici mapiù importanti processi aleatori di tutta la probabilità. Essenzialemnte, il processo èl'astrazione matematica del lancio di una moneta, ma a causa della sua ampia applicabilitàè spesso espresso in termini di una sequenza di prove generiche che soddisfano leseguenti assunzioni:

Ogni prova ha due possibili esiti, detti in genere successo e fallimento.1.

Le prove sono indipendenti. Intuitivamente, l'esito di una prova non ha influenzasugli esiti delle altre.

2.

In ogni prova, la probabilità di successo è p e quella di fallimento è 1 - p.3.

In termini formali, possiamo definire la sequenza di prove Bernoulliane come vettore divariabili casuali indicatore:

I1, I2, I3, ...

Una variabile indicatore è una variabile casuale che assume i valori 1 e 0, che in questocontesto indicano rispettivamente successo e fallimento. La j-esima variabile indicatoreregistra semplicemente l'esito della prova j. Quindi, le variabili indicatore sonoindipendenti e hanno la stessa funzione di densità:

P(Ij = 1) = p, P(Ij = 0) = (1 - p)

Pertanto, il processo di prove di Bernoulli è caratterizzato da un singolo parametro p.

Come abbiamo notato poc'anzi, l'esempio più ovvio di prova Bernoulliana è quello dellancio della moneta, dove successo indica testa e fallimento croce. Il parametro p è laprobabilità di testa (per cui, in generale, la moneta è sbilanciata).

1. Nell'esperimento della moneta, poni n = 20 e p = 0.1. Simula l'esperimento con p =0.1 e osserva i risultati. Ripeti con p = 0.3, 0.5, 0.7, 0.9.

2. Usa le assunzioni di base per mostrare che

P(I1 = i1, I2 = i2, ..., In = in) = pk(1 - p)n-k dove k = i1 + i2 + ··· + in.

3. Supponi che I1, I2, I3, ... sia un processo di prove di Bernoulli con parametro p.Mostra che 1 - I1, 1 - I2, 1 - I3, ... è un processo di prove di Bernoulli con parametro 1 - p.

Esempi generici

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli1.html (1 di 5) [22/11/2001 17.54.58]

Page 407: Laboratorio virtuale di probabilità e statistica

In un certo senso, l'esempio più generale di prova di Bernoulli si ha replicando unesperimento. In particolare, supponiamo di avere un esperimento aleatorio semplice e unevento di interesse A. Supponiamo ora di creare un esperimento composto formato dareplicazioni indipendenti dell'esperimento semplice. Definiamo successo alla prova j ilfatto che l'evento A si sia verificato in tale prova, e viceversa fallimentio il fatto che Anon si sia verificato. Ciò definisce ovviamente un processo di prove di Bernoulli conparametro p = P(A).

Le prove di Bernoulli si verificano anche estraendo campioni da una popolazionedicotomica. Specificamente, supponiamo di avere una popolazione di due tipi di unità,che indicheremo come tipo 0 e tipo 1. Le unità possono essere ad esempio persone,classificate come maschio o femmina, o componenti, classificati come funzionante odifettoso. Estraiamo n unità a caso dalla popolazione; per definizione, ciò significa cheogni unità della popolazione ha uguale probabilità di essere estratta. Se l'estrazioneavviene con reinserimento, allora ciascuna unità estratta viene reinserita primadell'estrazione successiva. In questo caso, le prove successive sono indipendenti, per cui itipi di unità del campione formano una serie di prove Bernoulliane, in cui il parametro p èla proporzione di oggetti di tipo 1 all'interno della popolazione. Se l'estrazione avvienesenza reinserimento, allora le estrazioni sono dipendenti, per cui le unità del campionenon formano una sequenza di prove Bernoulliane. Ad ogni modo, se la numerosità dellapopolazione è elevata rispetto a quella del campione, la dipendenza provocata dalmancato reinseirmento può essere trascurabile, per cui a fini pratici le unità del campionepossono essere trattate come sequenza di prove Bernoulliane. Ulteriori approfondimentisul campionamento da una popolazione dicotomica si trova nel capitolo sui modelli dicampionamento finiti.

Momenti

Per riferimento futuro, calcoliamo media, varianza e funzione generatrice di probabilità diuna generica variabile indicatore I con P(I = 1) = p.

4. Prova che E(I) = p

5. Prova che var(I) = p(1 - p)

6. Prova che E(tI) = 1 - p + pt per t appartenente a R.

7. Disegna il grafio della varianza dell'esercizio 5 in funzione di p. Nota in particolareche la varianza è massima per p = 1/2 e minima per p = 0 o p = 1.

Esercizi

8. Supponi che uno studente faccia un test a risposta multipla. Il test presenta 10domande, ciascuna delle quali ha 4 possibili risposte (di cui una sola è corretta). Se lostudente tira a indovinare, le domande formano una sequenza di prove Bernoulliane? Sesi, identifica gli esiti della prova e il parametro p.

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli1.html (2 di 5) [22/11/2001 17.54.58]

Page 408: Laboratorio virtuale di probabilità e statistica

9. Il candidato A concorre per una carica pubblica in un certo comune. Si scelgono acaso tra gli elettori del comune venti persone e si chiede se approvano il candidato. Lerisposte formano una sequenza di prove Bernoulliane? Se si, identifica gli esiti della provae il significato del parametro p.

10. Una roulette americana ha 38 caselle: 18 rosse, 18 nere e 2 verdi. Un giocatoregioca 15 volte, puntando ogni volta sul rosso. Gli esiti formano una sequenza di proveBernoulliane? Se si, identifica gli esiti della prova e il parametro p..

11. Due giocatori di tennis giocano 6 partire. Le partite formano una sequenza diprove Bernoulliane? Se si, identifica gli esiti della prova e il significato del parametro p.

Esame del sangue raggruppato

Supponiamo che ogni soggetto di una popolazione, indipendentemente dagli altri, abbiauna certa malattia con probabilità p. La malattia può essere identificata tramite un esamedel sangue, ma ovviamente l'esame costa.

Per un gruppo di k > 1 persone, confronteremo due strategie. La prima è sottoporre a test ik soggetti individualmente, cosicché, ovviamente, servono k test. La seconda è diraggruppare il sangue prelevato dai k soggetti e esaminare per primo il sangueraggruppato. Assumeremo che il test dia esito negativo se e solo se tutti e k i soggetti sonosani; in questo caso serve solo un test. D'altra parte, il test dà esito positivo se e solo sealmeno un soggetto è malato, e in questo caso si dovranno testare i soggettiindividualmente; in questo caso servono k + 1 test. Sia quindi X il numero di testnecessari per la strategia di raggruppamento.

12. Prova che

P(X = 1) = (1 - p)k, P(X = k + 1) = 1 - (1 - p)k.1.

E(X) = (k + 1) - k (1 - p)k.2.

13. Mostra che, in termini di valore atteso, la strategia di raggruppamento è miglioredell'altra se e solo se

p < 1 - (1 / k)1 / k.

Il grafico del valore critico pk = 1 - (1 / k)1 / k in funzione di k nell'intervallo [2, 20] èmostrato nel grafico seguente:

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli1.html (3 di 5) [22/11/2001 17.54.58]

Page 409: Laboratorio virtuale di probabilità e statistica

14. Prova che

Il valore massimo di pk si verifica in k = 3, e p3 ~ 0.307.1.

pk tende a 0 per k che tende a .2.

Segue dagli esercizi 13 e 14 che se p > 0.307, il raggruppamento non ha senso,indipendentemente dalla dimensione del gruppo k. Al contrario, se p è molto piccolo, percui la malattia è molto rara, il raggruppamento è ottimale a meno che la dimensione delgruppo k non sia molto grande.

Supponiamo ora di avere n soggetti. Per ogni k che divide n, possiamo partizionare lapopolazione in n / k gruppi di k unità ciascuno e raggruppare i prelievi di sangue in ognigruppo. Nota che k = 1 corrisponde all'esame individuale. Sia Xi il numero di testnecessari per il gruppo i.

15. Spiega perché k > 1, X1, X2, ..., Xn/k sono indipendenti e ciascuno ha ladistribuzione riportata nell'esercizio 12.

Il numero totale di test necessario in questo schema di partizionamento è

Yk = X1 + X2 + ··· + Xn/k.

16. Mostra che il numero atteso totale di test è

E(Yk) = n se k = 11.

E(Yk) = n[1 + 1 / k - (1 - p)k] se k > 1.2.

Quindi, in termini di valore atteso, la strategia ottimale è di raggruppare la popolazione inn / k gruppi di dimensione k, dove k minimizza la funzione definita nell'esercizioprecedente. È difficile ottenere una formula chiusa per il valore ottimale di k, ma questovalore può essere determinato numericamente per dati n e p.

17. Per i valori seguenti di n e p, trova la dimensione di raggruppamento ottimale k eil numero atteso di test.

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli1.html (4 di 5) [22/11/2001 17.54.58]

Page 410: Laboratorio virtuale di probabilità e statistica

n = 100, p = 0.01.1.

n = 1000, p = 0.052.

n = 1000, p = 0.0013.

Laboratorio virtuale > Prove Bernoulliane > [1] 2 3 4 5 6 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli1.html (5 di 5) [22/11/2001 17.54.58]

Page 411: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Prove Bernoulliane > 1 2 3 4 [5] 6 7

5. La distribuzione binomiale negativa

Supponiamo ancora una volta che il nostro esperimento casuale consista nell'eseguiredelle prove Bernoulliane I1, I2, ... In questo paragrafo studieremo la variabile casuale Ykche indica il numero di prove necessario per il k-esimo successo. Notiamo che Y1 è ilnumero di prove necessarie per avere il primo successo, che abbiamo indicato condistribuzione geometrica. Ricordiamo inoltre che Xn, il numero di successi nelle prime nprove, ha distribuzione binomiale con parametri n e p.

La funzione di densità

1. Mostra che Yk = n se e solo se In = 1 e Xn-1 = k - 1.

2. Usa l'esercizio 1, l'indipendenza e la distribuzione binomiale per provare che

P(Yk = n) = C(n - 1, k - 1)pk(1 - p)n - k for n = k, k + 1, k + 2, ...

La distribuzione definita dalla funzione di densità dell'esercizio 2 è detta distribuzionebinomiale negativa; ha due parametri: il numero di successi k e la probabilità di successop.

3. Nell'esperimento della binomiale negativa, modifica k e p con le barre a scorrimentoe osserva la forma della funzione di densità. Poni k = 2 e p = 0.4 ed esegui l'esperimentoaggiornando ogni 10 replicazioni. Osserva la convergenza delle frequenze relative ai lorovalori teorici.

4. Prova che le sequenze binomiale e binomiale negativa sono l'una l'inversa dell'altranel senso che

Xn k se e solo se Yk n

Quindi ogni evento che può essere rappresentato in termini della binomiale negativa puòanche essere espresso in termini della distribuzione binomiale.

5. Prova che

P(Yk = n) > P(Yk = n - 1) se e solo se n < (k - 1 + p) / p.

Quindi la funzione di densità prima cresce e poi decresce, raggiungendo il massimo perl'intero maggiore in (k - 1 + p) / p. Tale intero è la moda della distribuzione, per cui ladistribuzione binomiale negativa è unimodale.

6. Si lancia un dado bilanciato finché non escono 3 uno. Trova la probabilità cheservano almeno 15 lanci.

La distribuzione binomiale negativa

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli5.html (1 di 6) [22/11/2001 17.55.07]

Page 412: Laboratorio virtuale di probabilità e statistica

Somma di variabili geometriche indipendenti

Definiamo le variabili casuali che indicano il numero di prove tra i successi consecutivi:

Z1 = Y1 e Zk = Yk - Yk-1 per k = 2, 3, ...

7. Dimostra che tali variabili sono indipendenti e hanno ciascuna distribuzionegeometrica con parametro p. Inoltre,

Yk = Z1 + Z2 + ··· + Zk.

La media, varianza e la funzione generatrice di probabilità di Yk seguono facilmente dairisultati sulla distribuzione geometrica.

8. Dimostra che E(Yk) = k / p.

9. Prova che var(Yk) = k(1 - p) / p2.

10. Mostra che E(tYk) = [pt / (1 - t + tp)]k per |t| < 1 / (1 - p).

11. Supponi che U e V siano variabili casuali indipendenti relative a un certoesperimento, che U abbia distribuzione binomiale negativa con parametri j e p e che Vabbia distribuzione binomiale negativa con parametri k e p. Prova che U + V hadistribuzione binomiale negativa con parametri j + k e p.

Dai una dimostrazione probabilistica, basandoti sulle prove Bernoulliane.1.

Dai una dimostrazione basata sulla funzione generatrice dei momenti.2.

12. Nell'esperimento della binomiale negativa, modifica k e p con le barre ascorrimento e osserva la posizione e la dimensione della barra media/deviazione standard.Poni k = 3 e p = 0.25 ed esegui l'esperimento aggiornando ogni 10 replicazioni. Osserva laconvergenza di media e deviazione standard campionarie ai loro valori teorici.

13. Un certo tipo di missile ha probabilità di fallimento 0.02. Trova media edeviazione standard del numero di lanci per il quarto fallimento.

Approssimazione alla normale

14. Nell'esperimento della binomiale negativa, inizia con p = 0.5 e k = 1. Incrementa kdi 1 e osserva ogni volta la forma della funzione di densità. Ripeti per p = 0.3 e p = 0.8.

Anche se siamo limitati a k = 5, possiamo comunque vedere la caratteristica formacampanulare. Ciò è conseguenza del teorema del limite centrale, poiché la variabilecasuale binomiale negativa può essere scritta come somma di k variabili casuali(geometriche) indipendenti e identicamente distribuite.

15. Prova che la distribuzione della variabile standardizzata tende alla distribuzionenormale standardizzata al crescere di k.

La distribuzione binomiale negativa

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli5.html (2 di 6) [22/11/2001 17.55.07]

Page 413: Laboratorio virtuale di probabilità e statistica

(Yk - k / p) / [k(1 - p) / p]1/2 = (pYk - k) / [k(1 - p)]1/2.

16. Nell'esperimento della binomiale negativa, inizia con p = 0.5 e k = 5. Simula 1000replicazioni, aggiornando ogni 100, e calcola e confronta i seguenti valori:

P(8 Y5 15)1.

La frequenza relativa dell'evento {8 Y5 15}.2.

L'approssimazione normale a P(8 Y5 15).3.

17. Si lancia una moneta finché non esce la cinquantesima testa.

Assumendo che la moneta sia bilanciata, trova l'approssimazione normale allaprobabilità che la moneta debba essere lanciata almeno 125 volte.

1.

Supponi di eseguire l'esperimento e che siano necessari 125 lanci. Credi che lamoneta sia equilibrata?

2.

Il problema dei fiammiferi di Banach

Supponiamo che un professore distratto (ce ne sono di non distratti?) abbia N fiammiferinella tasca destra e N fiammiferi nella tasca sinistra. Quando ha bisogno di un fiammiferoper accendersi la pipa, pesca con uguale probabilità da una tasca o dall'altra. Vogliamocalcolare la funzione di densità della variabile casuale W che indica il numero difiammiferi che restano quando il professore si accorge che una delle sue tasche è vuota.Questo problema è detto problema dei fiammiferi di Banach, in onore del matematicoStefan Banach, che evidentemente si comportava in questo modo.

Possiamo riformulare il problema utilizzando la distribuzione binomiale. Chiaramente, lascelta dei fiammiferi forma una sequenza di prove Bernoulliane con paramatro p = 1/2.Più precisamente, possiamo considerare un fiammifero preso dalla tasca destra comevittoria del giocatore R e uno preso dalla tasca sinistra come vittoria del giocatore L. Inun'ipotetica sequenza infinita di prove, sia Y il numero di prove necessarie affinché Rvinca N + 1 prove e Z il numero di prove necessarie affinché L vinca N + 1 prove.Notiamo che sia Y che Z hanno distribuzione binomiale negativa con parametri N + 1 e p.

18. Per k = 0, 1, ..., N, prova che

L vince N - k prove nel momento in cui R vince N + 1 prove se e solo se Y = 2N - k+ 1

1.

{Y = 2N - k + 1} è equivalente all'evento in cui il professore scopre che la tasca didestra è vuota e nella sinistra restano k fiammiferi

2.

P(Y = 2N - k + 1) = C(2N - k, N)(1/2)2N - k + 1.3.

19. Per k = 0, 1, ..., N, prova che

R vince N - k prove nel momento in cui L vince N + 1 prove se e solo se Z = 2N - k+ 1

1.

{Z = 2N - k + 1} è equivalente all'evento in cui il professore scopre che la tasca di2.

La distribuzione binomiale negativa

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli5.html (3 di 6) [22/11/2001 17.55.07]

Page 414: Laboratorio virtuale di probabilità e statistica

sinistra è vuota e nella destra restanok fiammiferi

P(Z = 2N - k + 1) = C(2N - k, N)(1/2)2N - k + 1.3.

20. Combina i risultati dei due esercizi precedeti per concludere che

P(W = k) = C(2N - k, N) (1/2)2N - k per k = 0, 1, ..., N.

Col metodo proposto si può risolvere anche il problema dei fiammiferi di Banach nonsimmetrico. Supponiamo che il professore cerchi nella tasca destra con probabilità p enella sinistra con probabilità 1 - p, dove 0 < p < 1. Ciò che cambia nell'analisi è che Y hadistribuzione binomiale negativa con parametri N + 1 e p, mentre Z ha distribuzionebinomiale negativa con parametri N + 1 e 1 - p.

21. Prova che

P(W = k) = C(2N - k, N)[pN + 1 (1 - p)N - k + (1 - p)N pN - k] per k = 0, 1, ..., N.

Il problema dei punti

Supponi che due squadre (o due individui) A e B giochino una sequenza di proveBernoulliane, dove p è la probabilità che il giocatore A vinca una prova. Per due interinon negativi n e m, sia Fn,m(p) la probabilità che A faccia n punti prima che B ne facciam. Il calcolo di Fn,m(p) è un problema storico noto come problema dei punti, che furisolto da Pierre de Fermat e Blaise Pascal.

22. Commenta la validità dell'assunzione di prove Bernoulliane (indipendenza delleprove e probabilità di successo costante) per i giochi sportivi che presentano unacomponente di abilità oltre a quella casuale.

La soluzione al problema dei punti è semplice utilizzando la distribuzione binomiale (fuquesta la soluzione proposta da Pascal). Assumiamo ce si giochino n + m - 1 partite,indipendentemente dagli esiti, e sia Xn + m - 1 il numero di prove in cui A vince. Perdefinizione Xn + m - 1 ha distribuzione binomiale con parametri n + m - 1 e p.

23. Mostra che A vince n partite prima che B ne vinca m se e solo se

Xn + m - 1 n.

24. Usa il risultato dell'esercizio precedente per mostrare che

Fn,m(p) = k = n, ..., n + m -1 C(n + m - 1, k) pk(1 - p)n + m - 1 - k.

25. Nell'esperimento del problema dei punti, modifica i parametri n, m e p, e osservacome variano le probabilità. Con n = 10, m = 5 e p = 0.5, simula 1000 replicazioni,aggiornando ogni 10. Osserva la convergenza della frequenza relativa alla probabilità.

Esiste un'altra soluzione al problema che ricorre all'uso della distribuzione binomiale

La distribuzione binomiale negativa

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli5.html (4 di 6) [22/11/2001 17.55.07]

Page 415: Laboratorio virtuale di probabilità e statistica

negativa. Ciò si spiega bene se si ricorda l'equivalenza tra distribuzione binomiale edistribuzione binomiale negativa. Assumiamo in primo luogo che il gioco continuiall'infinito, indipendentemente dagli esiti, e sia Yn il numero di partite necessarie perchéA vinca n volte. Per definizione, Yn ha distribuzione binomiale negativa con parametri n ep.

26. Prova che A vince n partite prima che B ne vinca m se e solo se

Yn n + m -1

27. Usa il risultato dell'esercizio precedente per mostrare che

Fn,m(p) = j = n, ..., n + m - 1 C(j - 1, n - 1) pn(1 - p)j - n.

28. Nell'esperimento del problema dei punti, modifica i parametri j, k e p e osservacome variano le probabilità. Con n = 10, m = 10 e p = 0.7, simula 1000 replicazioni,aggiornando ogni 10. Osserva la convergenza della frequenza relativa alla probabilità.

29. Prova che, per dati n e m, Fn,m(p) aumenta da 0 a 1 per p che cresce da 0 e 1.

30. Nell'esperimento del problema dei punti, modifica i parametri n, m e p, e osservacome variano le probabilità. Con n = 5, m = 10 e p = 0.3, simula 1000 replicazioni,aggiornando ogni 10. Osserva la convergenza della frequenza relativa alla probabilità.

31. Prova che Fn,m(p) decresce al crescere di n per dati m e p, e che Fn,m(p) cresce alcrescere di m per dati n e p.

32. Nell'esperimento del problema dei punti, modifica i parametri n, m e p, e osservacome variano le probabilità. Con n = 10, m = 15 e p = 0.3, simula 1000 replicazioni,aggiornando ogni 10. Osserva la convergenza della frequenza relativa alla probabilità.

33. Condiziona all'esito della prima prova per derivare la seguente relazione ricursiva ele condizioni di limite (questa è la soluzione che propose Fermat):

Fn,m(p) = pFn - 1,m(p) + (1 - p)Fn,m - 1(p), per n, m = 1, 2, ...1.

Fn,0(p) = 0, F0,m(p) = 1.2.

Serie di giochi

Il caso particolare n = m è importante poiché Fn,n(p) è la probabilità che A vinca almeno ndi 2n - 1 partite. Tali serie, specialmente con n = 2, 3 o 4 sono spesso utilizzate nei tornei.

34. Poni p = 0.6. Calcola la probabilità che la squadra A vinca

Almeno 3 di 5 partite (n = 3).1.

Almeno 4 di 7 partite (n = 4).2.

La distribuzione binomiale negativa

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli5.html (5 di 6) [22/11/2001 17.55.07]

Page 416: Laboratorio virtuale di probabilità e statistica

35. Nell'esperimento del problema dei punti, modifica i parametri n, m e p (tenendo n= m), e osserva come variano le probabilità. Simula un gioco 3 di 5 ponendo n = m = 3, p= 0.6. Simula 1000 replicazioni, aggiornando ogni 10. Osserva la convergenza dellafrequenza relativa alla probabilità.

36. Prova che Fn,n(1 - p) = 1 - Fn,n(p) per ogni n e p.

Prova a dare una spiegazione probabilistica e una analitica.1.

Mostra che tale condizione implica che il grafico di Fn,n sia simmetrico rispetto a p= 1/2.

2.

Mostra che tale condizione implica che Fn,n(1/2) = 1/2.3.

37. Nell'esperimento del problema dei punti, modifica i parametri n, m e p (tenendo n= m), e osserva come variano le probabilità. Simula un gioco 4 di 7 ponendo n = m = 4, p= 0.45. Simula 1000 replicazioni, aggiornando ogni 10. Osserva la convergenza dellafrequenza relativa alla probabilità.

38. Sia n > m. Prova che Fn,n(p) > Fm,m(p) se e solo se p > 1/2. Interpreta il risultato.

Divisione delle puntate

Il problema dei punti nacque da una domanda posta dal Chevalier de Mere, che erainteressato alla corretta divisione delle puntate quando un gioco viene interrotto.Specificamente, supponiamo che i giocatori A e B giochino ciascuno C unità monetarie, epoi esegui prove Bernoulliane finché uno di loro non vince un numero fissato di prove. Ilvincitore si prende l'intero piatto 2C.

39. Se il gioco si interrompe quando A deve vincere ancora n partite e B ne devevincere altre m, dimostra che il piatto dev'essere diviso tra A e B, rispettivamente, comesegue:

2C Fn,m(p) per A,1.

2C[1 - Fn,m(p)] per B.2.

40. Supponi che i giocatori A e B giochino 50$ ciascuno. I giocatori lanciano unamoneta finché uno di loro vince 10 volte; il vincitore si prende il piatto. Supponi che ilgioco venga interrotto dalla guardia di finanza quando A ha vinto 5 volte e B 3 volte.Come si deve dividere il piatto?

Laboratorio virtuale > Prove Bernoulliane > 1 2 3 4 [5] 6 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione binomiale negativa

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli5.html (6 di 6) [22/11/2001 17.55.07]

Page 417: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Prove Bernoulliane > 1 2 3 4 5 6 [7]

7. Note conclusive

Simulazione di prove Bernoulliane

È molto semplice simulare prove Bernoulliane attraverso numeri casuali.

1. Sia p nell'intervallo [0, 1] e sia U1, U2, U3, ... una sequenza di variabili aleatorie,ciascuna distribuita uniformemente su (0, 1). Mostra che la sequenza seguente è unprocesso di prove Bernoulliane con parametro p:

Ij = 1 se Uj p, Ij = 0 se Uj > p

Gli esperimenti binomiale e binomiale negativa possono essere simulati direttamente apartire dalla sequenza di prove Bernoulliane, poiché tali variabili risultano essernefunzione.

Argomenti correlati

Le prove Bernoulli si trovano in molti altri capitoli di questo lavoro, a ulteriore confermadell'importanza del modello.

Il campionamento con reinserimento da una popolazione dicotomica produce proveBernoulliane. Il capitolo sui modelli di campionamento finito tratta diversi casibasati su questo tipo di campionamento.

Molti giochi sono basati su prove Bernoulliane. Il capitolo sui giochi di fortuna nepresenta alcuni.

Il capitolo su rosso e nero è più avanzato e tratta delle strategie pe giochi basati suprove Bernoulliane.

Il processo random walk, analizzato nel capitolo sul random walk si basa su proveBernoulliane.

La stima di p è trattata nei capitoli sulla stima puntuale e stima intervallare.●

I test di ipotesi per p sono presentati nel capitolo sui test di ipotesi.●

Libri

Il modello di prove Bernoulliane è trattato praticamente in ogni libro di probabilità. Inparticolare puoi vedere

A First Course in Probability, quinta edizione, di Sheldon Ross●

An Introduction to Probability Theory and its Applications, (Vol 1) terza edizione,di William Feller

Risposte agli esercizi del paragrafo 1

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli7.html (1 di 4) [22/11/2001 17.55.14]

Page 418: Laboratorio virtuale di probabilità e statistica

1.8. Si, probabilmente. Gli esiti sono corretto e sbagliato e p = 1 / 4.

1.9. Si, approssimatamente. Gli esiti sono preferisce A e non preferisce A; p è laproporzione di elettori dell'intero comune che preferisce A.

1.10. Si, gli esiti sono rosso e nero, e p = 18 / 38.

1.11. No, probabilmente, no. I giochi sono quasi certamente dipendenti, e la probabilitàdi vincita dipende da chi serve e quindi non è costante da partita a partita.

1.17.

k = 10, E(Yk) = 19.561.

k = 5, E(Yk) = 426.222.

k = 32, E(Yk) = 62.763.

Risposte agli esercizi del paragrafo 2

2.5. f(0) = 0.4019, f(1) = 0.4019, f(2) = 0.1608, f(3) = 0.0322, f(4) = 0.0032, f(5) =0.0001.

2.6. 0.07813

2.11.

P(almeno un 1 in 6 lanci) = 0.65511.

P(almeno due 1 in 12 lanci) = 0.61872.

2.12.

P(almeno un 1 in 4 lanci di 1 dado) = 0.51771.

P(almeno due 1 in 24 lanci di 2 dadi) = 0.4914.2.

2.23. X = Numero di fallimenti. E(X) = 1, sd(X) = 0.9899

2.24. X = Numero di 1. E(X) = 166.67, sd(X) = 11.79

2.31. Xn = Numero di teste nei primi n lanci. P(X20 = j | X100 = 30) = C(20, j) C(80, 30- j) / C(100, 30).

2.37. X = Numero di elettori che preferiscono A

E(X) = 20, sd(X) = 3.464.1.

P(X < 19) = 0.3356.2.

P(X < 19) ~ 0.33353.

2.44.

R3,2(p) = 3p2 - 2p3.1.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli7.html (2 di 4) [22/11/2001 17.55.14]

Page 419: Laboratorio virtuale di probabilità e statistica

R5,3(p) = 10p3 - 15p4 + 6p5.2.

3 di 5 è migliore per p 1 / 2.3.

Risposte agli esercizi del paragrafo 3

3.13. R: Rifiutare l'ipotesi nulla che la moneta sia bilanciata.

P(R) = 0.180, P(Rc) = 0.8201.

P(R) = 0.384, P(Rc) = 0.6162.

P(R) = 0.678, P(Rc) = 0.3223.

P(R) = 0.930, P(Rc) = 0.0704.

3.15. No: 0.0262

Risposte agli esercizi del paragrafo 4

4.5. 0.482

4.10. X = # lanci. E(X) = 50, sd(X) = 49.497.

4.12. 0.4

4.18. Geometrica con p = 18 / 38.

4.22. $1000.

4.27.

P(W = 1) = 2/3, P(W = 2) = 1/31.

P(W = 1) = 4/7, P(W = 2) = 2/7, P(W = 3) = 1/7.2.

P(W = i) = 2n - i / (2n - 1) per i = 1, 2, ..., n.3.

Risposte agli esercizi del paragrafo 5

5.6. 0.579

5.13. X = numero di lancio del quarto fallimento. E(X) = 200, sd(X) = 98.995

5.17. X = numero di lanci necessari per avere 50 teste.

0.00721.

No.2.

5.30.

0.6825.1.

0.71022.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli7.html (3 di 4) [22/11/2001 17.55.14]

Page 420: Laboratorio virtuale di probabilità e statistica

5.36. A prende $72.56, B prende $27.44

Risposte agli esercizi del paragrafo 6

6.11.

0.00751.

0.01782.

0.2053.

0.1234.

6.12. f(u, v, w, x, y, z) = C(4; u, v, w, x, y, z) (1/4)u + z (1/8)v + w + x+ y per u, v, w, x, y,z interi non negativi la cui somma è 4

6.14.

-0.6251.

-0.03862.

Laboratorio virtuale > Prove Bernoulliane > 1 2 3 4 5 6 [7]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/bernoulli/bernoulli7.html (4 di 4) [22/11/2001 17.55.14]

Page 421: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli speciali > A B C D E F [G] H

G. Random Walk

Sommario

Introduzione1.

Posizione massima2.

Ultimo passaggio da 03.

Il problema del ballottaggio4.

Applets

Random Walk●

Esperimento del ballottaggio●

Laboratorio virtuale > Modelli speciali > A B C D E F [G] HSommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Random Walk

http://www.ds.unifi.it/~stefanin/VL/VL_IT/walk/index.html [22/11/2001 17.55.18]

Page 422: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli speciali > A B C D E F G [H]

H. Sistemi di particelle interagenti

Sommario

Il processo dell'incendio1.

Il processo degli elettori2.

Note conclusive3.

Applets

Esperimento dell'incendio●

Esperimento degli elettori●

Laboratorio virtuale > Modelli speciali > A B C D E F G [H]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Sistemi di particelle interagenti

http://www.ds.unifi.it/~stefanin/VL/VL_IT/particles/index.html [22/11/2001 17.55.19]

Page 423: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Giochi di fortuna > [1] 2 3 4 5 6 7 8

1. Introduzione

Gioco d'azzardo e probabilità

I giochi di fortuna si annoverano tra le prime invenzioni del genere umano. L'uso di uncerto tipo di osso animale (detto astragalo) come dado risale circa al 3600 A.C.. I modernidadi a sei facce risalgono circa al 2000 A.C. e il termine bones (ossa) è utilizzata ancheoggi come espressione gergale (roll the bones). È a causa di questa origine remota, tral'altro, che utilizziamo il dado come base delle simulazioni in questo progetto.

Il gioco d'azzardo è intimamente legato allo sviluppo della teoria della probabilità. Lamaggior parte dei primi risultati in probabilità, in particolare, fu simulata attraversoproblemi di gioco d'azzardo come

il problema di DeMere,●

il problema di Pepy,●

il problema dei punti,●

il problema di San Pietroburgo.●

Molti dei primi libri di probabilità sono stati scritti per analizzare il gioco d'azzardo, peresempio Liber de Ludo Aleae (Libro sui giochi di fortuna), di Girolamo Cardano e Essayd’ Analyse sur les Jeux de Hazard (Saggio analitico sui giochi di fortuna), diPierre-Remond Montmort. I problemi di gioco d'azzardo continuano ad essere fonte diinteressanti e profondi problemi di probabilità a tutt'oggi (vedi ad esempio il capitolo surosso e nero).

Ovviamente è importante ricordare che le scoperte in probabilità, anche se motivate daproblemi di gioco, sono profondamente importanti in molti campi delle scienze naturali,delle scienze sociali, della medicina e della giurisprudenza. Inoltre, i giochi di fortunacostituiscono esempi chiari e puliti di esperimenti casuali, e quindi il loro studio puòessere utile per gli studenti.

In ogni caso, nulla di questo capitolo ha l'intento di avviarti, caro lettore, al giocod'azzardo. Al contrario, la nostra analisi mostrerà che, nel lungo termine, gli unici aguadagnarci sono quelli che organizzano il gioco. Il giocatore, inevitabilmente, cadevittima della legge dei grandi numeri.

In questo capitolo studieremo alcuni interessanti giochi di fortuna. Il poker, il poker didadi, craps e la roulette sono giochi molto popolari. Il problema di Monty Hall, alcontrario, è interessante per la controversia che ha prodotto.

Terminologia

Presentiamo ora la terminologia di base che useremo in alcuni paragrafi di questo

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games1.html (1 di 3) [22/11/2001 17.55.24]

Page 424: Laboratorio virtuale di probabilità e statistica

capitolo. Supponiamo che A sia un evento in un esperimento casuale. Gli odds matematicidi A si riferiscono alla probabilità di A. Più specificamente, se a e b sono numeri positivi,allora per definizione le affermazioni seguenti si equivalgono:

gli odds a favore di A sono a : b.●

P(A) = a / (a + b).●

gli odds contro A sono b : a.●

P(Ac) = b / (a + b).●

In molti casi a e b possono essere interi senza fattori comuni.

1. Similmente, supponi che p appartenga a (0, 1). Prova che le seguenti affermazionisono equivalenti:

P(A) = p.1.

Gli odds a favore di A sono p : 1 - p.2.

P(Ac) = 1 - p.3.

Gli odds contro A sono 1 - p : p.4.

D'altro canto, le quote di un evento si riferiscono al payout che si ha quando si puntasull'evento. Dire che una puntata sull'evento A paga n : m significa che se il giocatorepunta m unità di danaro su A e A si verifica, il giocatore riprende le m unità iniziali più nunità aggiuntive (per un profitto netto di n); se A non si verifica, il giocatore perde lapuntata di m unità (per un profitto netto di -m). Equivalentemente, il giocatore punta munità (su A), il banco punta n unità (su Ac) e il vincitore prende il piatto. Ovviamente, nonè necessario che il giocatore punti esattamente m; si possono avere puntate minori omaggiori. Se il giocatore punta k unità e vince, il suo payout è k(n / m).

Naturalmente, il nostro interesse primario è alla vincita netta se puntiamo su un qualcheevento. L'esercizio seguente riporta la densità, media e varianza per una puntata unitaria.Il valore atteso è particolarmente interessante a causa della legge dei grandi numeri, indicail guadagno (o perdita) nel lungo termine per unità puntata.

2. Supponi che gli odds a favore dell'evento A siano a : b e che una puntata su A paghin : m. Sia W la vincita generata da una puntata unitaria su A. Prova che

P(W = -1) = b / (a + b), P(W = n / m) = a / (a + b).1.

E(W) = (an - bm) / [m(a + b)].2.

var(W) = ab(n - m)2 / [m2(a + b)2].3.

In particolare, il valore atteso della puntata è 0 se e solo se an = bm, positivo se e solo sean > bm e negativo se e solo se an < bm. Il primo caso indica che la scommessa è giusta, esi verifica quando il guadagno è uguale agli odds contro l'evento. Il secondo caso indicache la scommessa è favorevole per il giocatore, e si verifica quando il guadagno èmaggiore degli odds contro l'evento. Il terzo caso indica che la scommessa è sfavorevoleper il giocatore e si verifica quando il guadagno è minore degli odds contro l'evento.Sfortunatamente, tutti i giochi da casinò cadono in quest'ultima categoria.

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games1.html (2 di 3) [22/11/2001 17.55.24]

Page 425: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Giochi di fortuna > [1] 2 3 4 5 6 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games1.html (3 di 3) [22/11/2001 17.55.24]

Page 426: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Giochi di fortuna > 1 2 [3] 4 5 6 7 8

3. Poker di dadi e Chuck-a-Luck

Poker di dadi

Il gioco del poker del dadi è simile al poker tradizionale, ma si gioca con dadi al postodelle carte. Si lanciano 5 dadi equilibrati. Registriamo l'esito dell'esperimento casualecome sequenza (ordinata) di punteggi:

X = (X1, X2, X3, X4, X5) dove Xi in {1, 2, 3, 4, 5, 6} è il punteggio sull'i-esimo dado.

Lo spazio campionario è quindi S = {1, 2, 3, 4, 5, 6}5. Poiché i dadi sono bilanciati,l'assunzione di base per il modello è che le variabili casuali X1, X2, X3, X4, X5 sianoindipendenti, e con distribuzione uniforme su {1, 2, 3, 4, 5, 6}.

1. Mostra che la mano casuale di poker di dadi X ha distribuzione uniforme su S:

P(X in A) = #(A) / #(S) per A S.

In termini statistici, una mano di poker di dadi è un campione casuale di dimensione 5estratto con reinserimento e con interesse per l'ordine dalla popolazione D = {1, 2, 3, 4, 5,6}. Per ulteriori approfondimenti su questo argomento, vedi il capitolo sui modelli dicampionamento finito. In particolare, in questo capitolo vedremo che il risultatodell'esercizio 1 non varrebbe se si registrasse la sequenza in modo non ordinato inveceche ordinato.

Il valore della mano

Il valore V della mano di poker di dadi è definito come segue:

V = 0: Nulla. Cinque punteggi diversi.●

V = 1: Coppia. Quattro punteggi diversi, uno di essi si presenta due volte e gli altriuna volta.

V = 2: Doppia coppia. Tre punteggi diversi; due si presentano due volte e l'altro unavolta.

V = 3: Tris. Tre punteggi diversi; uno si presenta tre volte e gli altri due una volta.●

V = 4. Full. Due punteggi diversi; uno si presenta tre volte e l'altro due volte.●

V = 5. Quadris. Due punteggi diversi; uno si presenta quattro volte e l'altro unavolta.

V = 6. Poker. Un punteggio si presenta 5 volte.●

2. Esegui l'applet poker di dadi 10 volte passo per passo. Per ciascun esito, osserva ilvalore della variabile casuale corrispondente al tipo di mano, come definito poc'anzi.

Poker di dadi e Chuck-a-Luck

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games3.html (1 di 3) [22/11/2001 17.55.29]

Page 427: Laboratorio virtuale di probabilità e statistica

La funzione di densità

Il calcolo della funzione di densità di V è un buon esercizio di calcolo combinatorio.

3. Mostra che il numero di mani di poker di dadi distinte è #(S) = 65 = 7776.

Negli esercizi seguenti dovrai spesso utilizzare la regola del prodotto del calcolocombinatorio per contare il numero di mani di vari tipi. In ciascun caso, prova a costruireun algoritmo per generare le mani di poker di un certo tipo, e conta il numero di modi incui puoi eseguire ciascun passo dell'algoritmo.

4. Mostra che P(V = 0) = 720 / 7776 = 0.09259.

5. Mostra che P(V = 1) = 3600 / 7776 = 0.46396.

6. Mostra che P(V = 2) = 1800 / 7776 = 0.23148.

7. Mostra che P(V = 3) = 1200 / 7776 = 0.15432.

8. Mostra che P(V = 4) = 300 / 7776 = 0.03858.

9. Mostra che P(V = 5) = 150 / 7776 = 0.01929.

10. Mostra che P(V = 6) = 6 / 7776 = 0.00077.

11. Esegui l'applet poker di dadi 1000 volte, aggiornando ogni 10, e osserva laconvergenza delle frequenze relative alla funzione di densità.

12. Trova la probabilità che lanciando una mano si ottenga un tris o di più.

13. Nell'applet poker di dadi, poni la frequenza di aggiornamento a 100 e imponi uncriterio d'arresto sulla base dei valori di V riportati qui sotto. Nota il numero di maninecessarie.

V = 31.

V = 42.

V = 53.

V = 64.

Chuck-a-Luck

Chuck-a-luck è un gioco popolare nei paesi anglosassoni che si gioca con tre dadi.Seguendo Richard Epstein, il nome originario era Sweat Cloth, e nei pub inglesi il gioco ènoto come corona e ancora (poiché sulle sei facce del dado sono disegnati picche, quadri,fiori, cuori, corona e ancora). I dadi sono più grossi di quelli normali e si tengono in unagabbia a forma di clessidra detta birdcage. I dadi si lanciano facendo girare la gabbia.

Chuck-a-luck è molto semplice. Il giocatore sceglie un numero da uno a sei e poi lancia idadi. Se in esattamente k dadi esce il punteggio detto dal giocatore, si vince k:1. Come a

Poker di dadi e Chuck-a-Luck

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games3.html (2 di 3) [22/11/2001 17.55.29]

Page 428: Laboratorio virtuale di probabilità e statistica

poker di dadi, l'assunzione di base è che i dadi siano equilibrati, per cui il vettore degliesiti è distribuito uniformemente su {1, 2, 3, 4, 5, 6}3:

X = (X1, X2, X3) dove Xi in {1, 2, 3, 4, 5, 6} è il punteggio sul dado i.

14. Sia Y il numero di dadi che mostrano il numero detto dal giocatore. Mostra che Yha distribuzione binomiale con parametri n = 3 e p = 1 / 6:

P(X = k) = C(3, k) (1 / 6)k(5 / 6)3 - k, per k = 0, 1, 2, 3.

15. Sia W la vincita netta per una puntata unitaria. Mostra che

W = -1 se Y = 0; W = Y se Y > 0.

16. Prova che

P(W = -1) = 125 / 2161.

P(W = 1) = 75 / 2162.

P(W = 2) = 15 / 2163.

P(W = 3) = 1 / 2164.

17. Esegui l'applet chuck-a-luck 1000 volte, aggiornando ogni 10. Nota la convergenzadella densità empirica di W alla densità teorica.

18. Prova che

E(W) = -0.07871.

var(W) = 1.2392.

19. Esegui l'applet chuck-a-luck 1000 volte, aggiornando ogni 10. Nota la convergenzadei momenti empirici di W ai momenti teorici. Supponi di aver puntato 1$ in ognuna delle1000 partite. Quanto sarebbe la tua vincita netta?

Laboratorio virtuale > Giochi di fortuna > 1 2 [3] 4 5 6 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Poker di dadi e Chuck-a-Luck

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games3.html (3 di 3) [22/11/2001 17.55.29]

Page 429: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Giochi di fortuna > 1 2 3 4 [5] 6 7 8

5. Roulette

La roulette (americana) ha 38 caselle numerate 00, 0 e 1-36. Come si vede dalla figura seguente,

le caselle 0, 00 sono verdi;●

le caselle 1, 3, 5, 7, 9, 12, 14, 16, 18, 19, 21, 23, 25, 27, 29, 30, 32, 34, 36 sono rosse;●

le caselle 2, 4, 6, 8, 10, 11, 13, 15, 17, 20, 22, 24, 26, 28, 29, 31, 33, 35 sono nere.●

A parte 0 e 00, le caselle sono alternativamente nere e rosse. L'ordine dei numeri sulla ruota è fatto in modo che numerigrandi e piccoli e pari e dispari si alternino.

Secondo Richard Epstein, la roulette è il più vecchio gioco da casinò che si gioca ancora. La sua invenzione è stataattribuita volta volta a Blaise Pascal, al matematico italiano Don Pasquale e a molti altri. In ogni caso, le prime rouletteapparvero a Parigi intorno al 1765.

L'esperimento della roulette è molto semplice. Si fa girare la ruota e vi si getta una pallina, facendola girare nellascanalatura in direzione opposta a quella di rotazione. Prima o poi la pallina cade in una delle caselle. Assumiamoovviamente che la ruota sia equilibrata, per cui la variabile casuale X che indica il numero di casella è distribuitauniformemente sullo spazio campionario

S = {00, 0, 1, 2, ..., 36}.

Quindi, P(X = x) = 1 / 38 per ogni x in S.

Puntate

Esattamente come craps, la roulette è molto popolare nei casinò per la grande varietà di puntate ammesse. La figuraprecedente mostra un tavolo da roulette e indica alcune delle puntate che studieremo. Vedremo che tutte le puntate hannolo stesso valore atteso (negativo, ovviamente).

Una puntata singola è una puntata su un singolo numero, e paga 35:1.

1. sIA W la vincita di una puntata straight bet unitaria. Mostra che

P(W = -1) = 37 / 38, P(W = 35) = 1 / 38.1.

E(W) = -0.0526.2.

sd(W) = 5.76263.

2. Nell'applet roulette, seleziona la puntata su un numero singolo. Simula 1000 replicazioni, aggiornando ogni 10, eosserva la convergenza della densità empirica e dei momenti di W ai loro valori teorici. Supponi di puntare 1$ per ognireplicazione. A quanto ammonterebbe la tua vincita netta?

Una puntata su 2 numeri (o puntata doppia) punta su due numeri adiacenti sul tavolo. La puntata paga 17:1 se uno deinumeri esce e perde altrimenti.

3. Sia W la vincita di una puntata su due numeri unitaria. Mostra che

P(W = -1) = 36 / 38, P(W = 17) = 2 / 38.1.

Roulette

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games5.html (1 di 3) [22/11/2001 17.55.34]

Page 430: Laboratorio virtuale di probabilità e statistica

E(W) = -0.0526.2.

sd(W) = 4.0193.3.

4. Nell'applet roulette, seleziona la puntata su due numeri. Simula 1000 replicazioni, aggiornando ogni 10, e osserva laconvergenza della densità empirica e dei momenti di W ai loro valori teorici. Supponi di puntare 1$ per ogni replicazione.A quanto ammonterebbe la tua vincita netta?

Una puntata su 3 numeri (o puntata riga) punta su tre numeri di una delle righe verticali. La puntata paga 11:1 se uno deinumeri esce e perde altrimenti.

5. Sia W la vincita di una puntata su tre numeri unitaria. Mostra che

P(W = -1) = 35 / 38, P(W = 11) = 3 / 38.1.

E(W) = -0.0526.2.

sd(W) = 3.2359.3.

6. Nell'applet roulette, seleziona la puntata su tre numeri. Simula 1000 replicazioni, aggiornando ogni 10, e osserva laconvergenza della densità empirica e dei momenti di W ai loro valori teorici. Supponi di puntare 1$ per ogni replicazione.A quanto ammonterebbe la tua vincita netta?

Una puntata su 4 numeri punta su quattro numeri che formano un quadrato sul tavolo. La puntata paga 8:1 se uno deinumeri esce e perde altrimenti.

7. Sia W la vincita di una puntata su quattro numeri unitaria. Mostra che

P(W = -1) = 34 / 38, P(W = 8) = 4 / 38.1.

E(W) = -0.0526.2.

sd(W) = 2.7620.3.

8. Nell'applet roulette, seleziona la puntata su quattro numeri. Simula 1000 replicazioni, aggiornando ogni 10, eosserva la convergenza della densità empirica e dei momenti di W ai loro valori teorici. Supponi di puntare 1$ per ognireplicazione. A quanto ammonterebbe la tua vincita netta?

Una puntata su 6 numeri punta su sei numeri su due righe del tavolo. La puntata paga 5:1 se uno dei numeri esce e perdealtrimenti.

9. Sia W la vincita di una puntata su sei numeri unitaria. Mostra che

P(W = -1) = 37 / 38, P(W = 5) = 1 / 38.1.

E(W) = -0.0526.2.

sd(W) = 2.1879.3.

10. Nell'applet roulette, seleziona la puntata su sei numeri. Simula 1000 replicazioni, aggiornando ogni 10, e osserva laconvergenza della densità empirica e dei momenti di W ai loro valori teorici. Supponi di puntare 1$ per ogni replicazione.A quanto ammonterebbe la tua vincita netta?

Una puntata su 12 numeri può essere una puntata colonna, su una delle tre colonne di 12 numeri che formano la tavola, osui primi 12 (1-12), i 12 centrali (13-24), e gli ultimi 12 (25-36). Una puntata su 12 numeri paga 2:1 se uno dei numeriesce e perde altrimenti (anche se escono 0 o 00).

11. Sia W la vincita di una puntata su dodici numeri unitaria. Mostra che

P(W = -1) = 26 / 38, P(W = 2) = 12 / 38.1.

E(W) = -0.0526.2.

sd(W) = 1.3945.3.

12. Nell'applet roulette, seleziona la puntata su dodici numeri. Simula 1000 replicazioni, aggiornando ogni 10, eosserva la convergenza della densità empirica e dei momenti di W ai loro valori teorici. Supponi di puntare 1$ per ognireplicazione. A quanto ammonterebbe la tua vincita netta?

Una puntata su 18 numeri può essere sul colore (rosso o nero), sulla parità (numeri dispari da 1 a 36 o numeri pari da 1 a36 o sulla posizione bassa (numeri da 1 a 18) o alta (numeri da 19 a 36). Una puntata su 18 numeri paga 1:1 se uno deinumeri esce e perde altrimenti (anche se escono 0 o 00).

13. Sia W la vincita di una puntata su diciotto numeri unitaria. Mostra che

Roulette

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games5.html (2 di 3) [22/11/2001 17.55.34]

Page 431: Laboratorio virtuale di probabilità e statistica

P(W = -1) = 20 / 38, P(W = 1) = 18 / 38.1.

E(W) = -0.0526.2.

sd(W) = 0.9986.3.

14. Nell'applet roulette, seleziona la puntata su diciotto numeri. Simula 1000 replicazioni, aggiornando ogni 10, eosserva la convergenza della densità empirica e dei momenti di W ai loro valori teorici. Supponi di puntare 1$ per ognireplicazione. A quanto ammonterebbe la tua vincita netta?

15. Anche se tutte le puntate hanno lo stesso valore atteso, le deviazioni standard variano inversamente rispetto alnumero di numeri su cui si punta. Quali sono le implicazioni di questo fatto per il giocatore?

Laboratorio virtuale > Giochi di fortuna > 1 2 3 4 [5] 6 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Roulette

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games5.html (3 di 3) [22/11/2001 17.55.34]

Page 432: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Giochi di fortuna > 1 2 3 4 5 [6] 7 8

6. Il problema di Monty Hall

Termini del problema

Il problema di Monty Hall riguarda una situazione di gioco classica e prende nome daMonty Hall, conduttore per lunghi anni della trasmissione TV Let's Make a Deal. Sihanno tre porte indicate con numeri da 1 a 3. Dietro una delle porte c'è un'automobile,dietro le altre delle capre:

Le regole sono le seguenti:

Il giocatore sceglie una porta.1.

Il conduttore sceglie una porta diversa e la apre.2.

Il conduttore dà al giocatore la possibilità di cambiare la porta con quella che resta.3.

La porta che il giocatore alla fine sceglie viene aperta e il giocatore vince o perde.4.

Il problema di Monty Hall ha generato molte controversie a causa di alcuni articoli diMarilyn Vos Savant nella rubrica Ask Marilyn del Parade magazine, un popolaresupplemento domenicale al giornale. La controversia ebbe inizio quando un lettore pose ilproblema nei seguenti termini:

Supponi di essere alla trasmissione e di dover scegliere tra tre porte. Nesceglie una, ad esempio la prima, e il conduttore, che sa che che c'è dietro leporte, ne apre un'altra, ad esempio la terza, dietro alla quale c'è la capra. Poiti chiede “Vuoi cambiare e scegliere la seconda porta?” Ti convienecambiare la scelta?

Marilyn rispose che il concorrente deve cambiare, affermando che c'è una possibilità di1/3 che l'automobile sia dietro la porta 1 e di 2/3 che sia dietro la 2. Nelle rubricheseguenti, Marilyn pubblicò diverse risposte, alcune di accademici, che affermavano intoni arrabbiati o sarcastici che era in errore e che ci sono uguali probabilità che la caprasia dietro ciascuna delle porte. Marilyn rimase della sua opinione e presentò ulterioriargomenti, non formali.

1. Pensa al problema. Concordi con Marilyn o pensi che nessuna delle due soluzionisia esatta?

2. Nel gioco di Monty Hall, poni la strategia del conduttore a standard (il significato ditale strategia sarà spiegato più avanti). Esegui il gioco 50 volte utilizzando le seguentistrategie. Hai cambiato idea sulla risposta all'esercizio 1?

Il problema di Monty Hall

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games6.html (1 di 7) [22/11/2001 17.55.45]

Page 433: Laboratorio virtuale di probabilità e statistica

Cambia sempre1.

Non cambiare mai2.

2. Nel gioco di Monty Hall, poni la strategia del conduttore a cieco (il significato ditale strategia sarà spiegato più avanti). Esegui il gioco 50 volte utilizzando le seguentistrategie. Hai cambiato idea sulla risposta all'esercizio 1?

Cambia sempre1.

Non cambiare mai2.

Modellare il problema

Quando si inizia a riflettere sul problema di Monty Hall, si capisce che i termini posti dallettore a Marilyn sono così vaghi che è impossibile una discussione sensata senzaassunzioni chiarificatrici sulle strategie del conduttore e del giocatore. Vedremo che, difatto, fraintendimenti su tali strategie sono la causa della controversia.

Proviamo a formalizzare il problema. In genere le decisioni di conduttore e concorrentepossono variare da gioco a gioco, ma se abbiamo un esperimento casuale nel sensoclassico del termine, dobbiamo assumere che le stesse distribuzioni di probabilità regolinoil comportamento di conduttore e giocatore in ciascuna partita, e che quest'ultime siano tradi loro indipendenti.

Ci sono quattro variabili casuali in ogni partita:

U: il numero della porta che contiene l'automobile.1.

X: il numero della prima porta scelta dal concorrente.2.

V: il numero della porta aperta dal conduttore.3.

Y: il numero della seconda porta scelta dal concorrente.4.

Ciascuna di queste variabili casuali assume i valori possibili 1, 2 e 3. In ogni caso, per leregole del gioco, il conduttore non può aprire la porta scelta dal giocatore:

V X, V Y.

Ammettiamo la possibilità che V = U, cioè che il conduttore apra la porta con dietrol'automobile. Se ciò sia ragionevole è la fonte della controversia.

Ci sono tre eventi di interesse. Indicheremo con W la variabile indicatore dell'evento cheil concorrente vinca:

W = 1 se Y = U; W = 0 altrimenti.

Indicheremo con S la variabile indicatore dell'evento che il concorrente cambi porta:

S = 1 se Y X; S = 0 altrimenti.

Infine, indicheremo con G la variabile indicatore dell'evento che il conduttore apra unaporta con dietro la capra:

Il problema di Monty Hall

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games6.html (2 di 7) [22/11/2001 17.55.45]

Page 434: Laboratorio virtuale di probabilità e statistica

G = 1 se V U; G = 0 altrimenti.

L'esperimento di Monty Hall sarà definito formalmente una volta individuata ladistribuzione congiunta delle variabili indicate. Tale distribuzione dipende dalle strategiedi conduttore e concorrente, che consideremo in seguito.

Strategie del conduttore

Nell'esperimento di Monty Hall, nota che il conduttore determina la funzione di densitàdella porta con l'automobile:

P(U = i) per i = 1, 2, 3.

La scelta più ovvia è quella di assegnare a caso l'automobile a una delle porte. Ciò portaad avere una distribuzione uniforme, e se non specificato diversamente, assumeremo cheU abbia la distribuzione:

P(U = i) = 1/3 per i = 1, 2, 3.

Il conduttore determina inoltre la funzione di densità condizionata della porta che apre,data la conoscenza della porta che nasconde l'automobile e della prima porta scelta dalgiocatore:

P(V = k | U = i, X = j) per i, j, k = 1, 2, 3.

Ricorda che, poiché il conduttore non può aprire la porta scelta dal giocatore, taleprobabilità dev'essere 0 per k = j. La distribuzione di U e la distribuzione condizionata diV costituiscono la strategia del conduttore.

Nella maggior parte dei giochi reali, il conduttore aprirà sempre una porta con la capradietro. Se la prima decisione del giocatore è sbagliata, allora il conduttore non ha scelta:non può aprire la porta con l'automobile o quella scelta dal giocatore e deve quindi apriresolo la porta restante. D'altra parte, se la prima decisione del giocatore è corretta, allora ilconduttore può aprire una qualcunque delle due porte restanti, poiché entrambenascondono la capra. Quindi può sceglierne una a caso.

4. Mostra che questa strategia porta alla seguente distribuzione condizionata:

P(V = k | U = i, X = j) = 1 se i, j, k sono distinti1.

P(V = k | U = i, X = j) = 1/2 se i = j e k i2.

P(V = k | U = i, X = j) = 0 se k = i o k = j3.

La distribuzione dell'esercizio 4 accoppiata alla distribuzione uniforme di U, sarannoindicate come startegia standard del conduttore.

5. Nel gioco di Monty Hall, poni la strategia del conduttore a standard. Esegui il gioco50 volte utilizzando le seguenti strategie. Quale funziona meglio?

Cambia sempre1.

Non cambiare mai2.

Il problema di Monty Hall

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games6.html (3 di 7) [22/11/2001 17.55.45]

Page 435: Laboratorio virtuale di probabilità e statistica

Un'altra possibile strategia del conduttore è quella di aprire una porta scelta comunque acaso tra le due restanti, per cui può aprire anche la porta con dietro l'automobile.

6. Mostra che questa strategia porta alla seguente distribuzione condizionata:

P(V = k | U = i, X = j) = 1/2 se k j1.

P(V = k | U = i, X = j) = 0 se k = i2.

La distribuzione dell'esercizio 6 accoppiata alla distribuzione uniforme di U, è dettastrategia cieca del conduttore. La strategia cieca può sembrare strana, ma la confusione trale due strategie sta alla base della controversia su questo problema.

7. Nel gioco di Monty Hall, poni la strategia del conduttore a cieco. Esegui il gioco 50volte utilizzando le seguenti strategie. Quale funziona meglio?

Cambia sempre1.

Non cambiare mai2.

Strategie del giocatore

Il giocatore, per parte sua, determina la funzione di densità della sua prima scelta:

P(X = j) per j = 1, 2, 3.

La strategia ovvia è quella di scegliere una porta a caso, poiché a questo punto del gioconon ha informazioni. Ciò porta alla distribuzione uniforme:

P(X = j) = 1/3 per j = 1, 2, 3.

Il giocatore determina inoltre la funzione di densità condizionata della sua seconda scelta,conoscendo la prima e la porta aperta dal conduttore:

P(Y = l | X = j, V = k) per j, k, l = 1, 2, 3 con j k.

Ricorda che, poiché il giocatore non può scegliere la porta aperta dal conduttore, taleprobabilità deve valere 0 per l = k. La distribuzione di X e la distribuzione condizionata diY costituiscono la strategia del giocatore.

8. Supponi che il giocatore cambi la porta con probabilità p. Mostra che ciò porta allaseguente distribuzione condizionata

P(Y = l | X = j, V = k) = p se j, k, l sono distinti1.

P(Y = l | X = j, V = k) = 1 - p se j k e l = j2.

P(Y = l | X = j, V = k) = 0 se j = k o l = k3.

In particolare, se p = 1, il giocatore cambia sempre, mentre se p = 0, il giocatore noncambia mai.

Indipendenza

Dobbiamo fare alcune assunzioni di indipendenza per tener conto della mancanza di

Il problema di Monty Hall

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games6.html (4 di 7) [22/11/2001 17.55.45]

Page 436: Laboratorio virtuale di probabilità e statistica

informazioni che il giocatore e il conduttore hanno sul comportamento l'uno dell'altro. Inprimo luogo, il giocatore non conosce la porta che nascondo l'auto, per cui assumiamo cheU e X siano indipendenti. Inoltre, l'unica informazione sulla posizione dell'auto che ilgiocatore ha al momento di fare la seconda scelta è l'informazione (se ce n'è) contenutanella sua prima scelta e nella conseguente decisione del conduttore. Formalmente, ciòsignifica che Y è condizionalmente indipendente da U dati X e V.

Le strategia del conduttore e del giocatore costituiscono i dati di base del problema diMonty Hall. Grazie alle assunzioni di indipendenza, la distribuzione congiunta dellevariabili casuali di base è completamente individuata da tali strategie.

9. Usa la regola del prodotto della probabilità condizionata per mostrare che, per ognii, j, k e l,

P(U = i, X = j, V = k, Y = l) = P(U = i)P(X = j)P(V = k | U = i, X = j)P(Y = l | X = j, V =k)

La probabilità di un evento definito in termini del problema di Monty Hall può esserecalcolata sommando la densità congiunta per i valori appropriati di i, j, k e l.

10. Prova che con ciascuna delle strategie di base del conduttore, V è distribuitauniformemente su {1, 2, 3}.

11. Supponi che il giocatore cambi porta con probabilità p. Prova che con ciascunadelle strategie di base del conduttore, Y è distribuita uniformemente su {1, 2, 3}.

12. Nell'esperimento di Monty Hall, poni la strategia del conduttore a standard. Perciascuno dei seguenti valori di p, simula 1000 replicazioni, aggiornando ogni 10.Basandoti sulla frequenza relativa, quale strategia funziona meglio?

p = 0 (non cambiare mai)1.

p = 0.32.

p = 0.53.

p = 0.74.

p = 1 (cambiare sempre)5.

13. Nell'esperimento di Monty Hall, poni la strategia del conduttore a cieco. Perciascuno dei seguenti valori di p, simula 1000 replicazioni, aggiornando ogni 10.Basandoti sulla frequenza relativa, quale strategia funziona meglio?

p = 0 (non cambiare mai)1.

p = 0.32.

p = 0.53.

p = 0.74.

p = 1 (cambiare sempre)5.

La probabilità di vittoria

Il problema di Monty Hall

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games6.html (5 di 7) [22/11/2001 17.55.45]

Page 437: Laboratorio virtuale di probabilità e statistica

L'evento in cui il giocatore vince è {W = 1} = {Y = U}. Calcoliamo ora la probabilità ditale evento con le due strategie del conduttore che abbiamo proposto.

14. Supponi che il conduttore segua la strategia standard e che il giocatore cambi portacon probabilità p. Mostra che la probabilità di vittoria del giocatore è

P(Y = U) = 1/3(1 + p).

In particolare, se il giocatore cambia sempre, la probabilità di vittoria è 2/3, mentre se noncambia la probabilità è 1/3.

15. Nell'esperimento di Monty Hall, poni la strategia del conduttore a standard. Perciascuno dei seguenti valori di p, simula 1000 replicazioni, aggiornando ogni 10. Inciascun caso, osserva la convergenza della frequenza relativa di vittorie alla probabilità divittoria.

p = 0 (non cambiare mai)1.

p = 0.32.

p = 0.53.

p = 0.74.

p = 1 (cambiare sempre)5.

16. Supponi che il conduttore segua la strategia cieca. Mostra che per qualsiasistrategia del giocatore (non solo le standard),

P(Y = U) = 1/3.

17. Nell'esperimento di Monty Hall, poni la strategia del conduttore a cieco. Perciascuno dei seguenti valori di p, simula 1000 replicazioni, aggiornando ogni 10. Inciascun caso, osserva la convergenza della frequenza relativa di vittorie alla probabilità divittoria.

p = 0 (non cambiare mai)1.

p = 0.32.

p = 0.53.

p = 0.74.

p = 1 (cambiare sempre)5.

Per una soluzione completa al problema di Monty Hall, dobbiamo calcolate la probabilitàcondizionata che il giocatore vinca, sapendo che il conduttore apre una porta con dietrouna capra:

P(Y = U | V U) = P(Y = U) / P(V U).

Attraverso le strategie del giocatore e del conduttore abbiamo definito il numeratore,ovvero la probabilità di vittoria. Ora dobbiamo considerare il denominatore, ovvero laprobabilità che il conduttore apra una porta con la capra.

Se facciamo affidamento sulla strategia standard, la probabilità condizionata di vittoria è

Il problema di Monty Hall

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games6.html (6 di 7) [22/11/2001 17.55.45]

Page 438: Laboratorio virtuale di probabilità e statistica

uguale alla probabilità condizionata, indipendentemente dalla strategia del giocatore. Se ilgiocatore cambia porta con probabilità p, allora, per l'esercizio 1,

P(Y = U | V U) = 1/3(1 + p).

18. Prova che se il conduttore segue la strategia cieca, allora per qualunque strategiadel giocatore,

P(V U) = 2/3 e quindi P(Y = U | V U) = 1/2.

19. Nell'esperimento di Monty Hall, poni la strategia del conduttore a cieco. Perciascuno dei seguenti valori di p, simula 500 replicazioni, aggiornando ogni volta. Inciascun caso, calcola la frequenza relativa di vittorie, sapendo che il conduttore apre laporta con la capra, e confrontala con la risposta teorica all'esercizio 18.

p = 0 (non cambiare mai)1.

p = 0.32.

p = 0.53.

p = 0.74.

p = 1 (cambiare sempre)5.

La confusione tra la probabilità condizionata di vittoria per queste due strategie è stata lafonte delle controversie circa questo problema. Marilyn pensava probabilmente allastrategia standard per il conduttore, mentre alcuni dei suoi critici si riferivano allastrategia cieca. Questo problema sottolinea l'importanza di una modellazione attenta e diun'espressione precisa delle assunzioni. Marilyn ha ragione se il conduttore segue lastrategia standard, i cirtici hanno ragione se il conduttore segue la strategia cieca, ognialtra risposta può essere corretta se il conduttore segue altre strategie.

La rappresentazione matematica che abbiamo utilizzato è praticamente la più completapossibile. In ogni caso, se vogliamo semplicemente risolvere il problema di Marilyn,esiste una via molto più semplice (che forse hai trovato da solo). Supponiamo che ilconduttore apra sempre una porta con la capra. Se la prima porta scelta dal giocatore èsbagliata (cioè nasconde una capra), allora il conduttore non ha scelta e deve aprire perforza l'altra porta con la capra. Quindi se il giocatore cambia porta vince. D'altra parte, sela prima porta che il giocatore sceglie è la giusta e poi cambia, allora ovviamente perde.Si vede quindi che se il giocatore cambia sempre porta vince se e solo se la sua primascelta era sbagliata, evento che ha ovviamente probabilità 2/3. Se il giocatore non cambiamai, allora vince se e solo se la sua prima scelta è corretta, e tale evento ha probabilità1/3.

Laboratorio virtuale > Giochi di fortuna > 1 2 3 4 5 [6] 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Il problema di Monty Hall

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games6.html (7 di 7) [22/11/2001 17.55.45]

Page 439: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Giochi di fortuna > 1 2 3 4 5 6 7 [8]

8. Note conclusive

Simulazione

È molto semplice simulare il lancio di un dado equilibrato attraverso un generatore dinumeri casuali. Ricorda che la funzione tetto ceil(x) indica l'intero più piccolo maggiore ouguale a x.

1. Supponi che U sia distribuita uniformemente su (0, 1) (numero casuale). Prova checeil(6U) è distribuita uniformemente su {1, 2, 3, 4, 5, 6}.

Per vedere come simulare una mano di carte, vedi il paragrafo note conclusive nelcapitolo sui modelli di campionamento finito. Un metodo generale per simulare variabilicasuali è basato sulla funzione quantile.

Argomenti correlati

Per molti dei modelli presentati in questo capitolo, il giocatore vince o perde,indipendentemente da partita a partita e con la stessa probabilità. Tali processicasuali sono studiati in dettaglio nel capitolo sulle prove Bernoulliane.

Molti dei giochi che abbiamo studiato in questo capitolo possono essere visti, intermini statistici, come campionamento da una popolazione finita. Il capitolo suimodelli di campionamento finito tratta tali modelli di campionamento.

Nella nostra analisi sul valore atteso condotta in questo capitolo, abbiamo assuntoche il giocatore punta consistenetemente da partita a partita. Molti giocatoriritengono che si possa costruire una strategia vincente variando le puntate aseconda degli esiti delle prove precedenti. Tali strategie sono fallimentari, tuttaviaalcune sono migliori di altre. Il capitolo su rosso e nero presenta un confronto tradue strategie opposte: gioco prudente e gioco avventuroso.

Una delle strategie più semplici per variare le puntate è trattata nel problema diPietroburgo.

Siti web

Gambler's Anonymous è un gruppo di supporto psicologico fondato nel 1947 peraiutare i giocatori d'azzardo compulsivi.

The Wizard of Odds è una grande risorsa per raccogliere informazioni su giochid'azzardo e di fortuna. Il sito comprende regole e probabilità per quasi tutti i giochida casinò, regole di comportamento per il giocatore e altre cose, e programmi disimulazione per alcuni giochi scelti.

Libri

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games8.html (1 di 6) [22/11/2001 17.55.55]

Page 440: Laboratorio virtuale di probabilità e statistica

Un buon riferimento elementare per l'analisi di vari giochi di fortuna è TheMathematics of Games and Gambling di Edward Packel.

Per una buona trattazione formale approfondita dei giochi d'azzardo, puoi vedereThe Theory of Gambling and Statistical Logic, di Richard Epstein

Un'interessante storia del gioco d'azzardo e della teoria della probabilità si trova inGames, Gods, and Gambling di Florence David.

Un bel racconto immaginario (ma in parte autobiografico) su un giocatored'azzardo compulsivo è Il giocatore, di Fedor Dostoyevsky.

Un'interessante biografia di Cardano è Cardano, the Gambling Scholar di OysteinOre.

Risposte agli esercizi del paragrafo 2

2.15. 0.0287

2.16. 3.913 × 10-10

2.17. Ordinale. No.

Risposte agli esercizi del paragrafo 3

3.12. 0.2130

Risposte agli esercizi del paragrafo 4

4.36. 0.09235

Risposte agli esercizi del paragrafo 7

7.3. E(U) = 0.5319148936, sd(U) = 0.6587832083

k P(U = k)0 0.55456442531 0.36484501672 0.07484000343 0.00561300034 0.00013690245 0.0000006519

7.4. E(U) = 0.5102040816, sd(U) = 0.6480462207

k P(U = k)0 0.56951969811 0.35594981132 0.06945362173 0.0049609730

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games8.html (2 di 6) [22/11/2001 17.55.55]

Page 441: Laboratorio virtuale di probabilità e statistica

4 0.00011537155 0.0000005244

7.5. E(U) = 1.042553191, sd(U) = 0.8783776109

k P(U = k)0 0.29644006421 0.42722244542 0.21971440053 0.05085981494 0.00549835835 0.00026044866 0.00000445217 0.0000000159

7.8.

P(I = i, U = k)i

0 1

k

0 0.5340250022 0.02053942321 0.3513322383 0.01351277842 0.0720681514 0.00277185203 0.0054051114 0.00020788894 0.0001318320 0.00000507055 0.0000006278 0.0000000241

7.9.

P(I = i, U = k)i

0 1

k

0 0.5559597053 0.01355999281 0.3474748158 0.00847499552 0.0677999641 0.00165365773 0.0048428546 0.00011811844 0.0001126245 0.00000274695 0.0000005119 0.0000000125

Nei seguenti esercizi di Keno, sia V la vincita casuale generata da una puntata unitaria.

7.13. m = 1. E(V) = 0.75, sd(V) = 1.299038106

v P(V = v)0 0.753 0.25

7.14. m = 2. E(V) = 0.7215189873, sd(V) = 2.852654587

v P(V = v)0 0.9398734177

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games8.html (3 di 6) [22/11/2001 17.55.55]

Page 442: Laboratorio virtuale di probabilità e statistica

12 0.0601265822

7.15. m = 3. E(V) = 0.7353943525, sd(V) = 5.025285956

v P(V = v)0 0.84737098341 0.138753651443 0.0138753651

7.16. m = 4. E(V) = 0.7406201394, sd(V) = 7.198935911

v P(V = v)0 0.74105325051 0.21263546583 0.0432478914130 0.0030633923

7.17. m = 5. E(V) = 0.7207981892, sd(V) = 20.33532453

v P(V = v)0 0.90332768501 0.083935052310 0.0120923380800 0.0006449247

7.18. m = 6. E(V) = 0.7315342885, sd(V) = 17.83831647

v P(V = v)0 0.83841791121 0.12981954754 0.028537917895 0.00309563851500 0.0001289849

7.19. m = 7. E(V) = 0.7196008747, sd(V) = 40.69860455

v P(V = k)0 0.93841404921 0.052190966825 0.0086385048350 0.00073207678000 0.0000244026

7.20. m = 8. E(V) = 0.7270517606, sd(V) = 55.64771986

v P(V = v)0 0.97916589999 0.018302585690 0.0023667137

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games8.html (4 di 6) [22/11/2001 17.55.55]

Page 443: Laboratorio virtuale di probabilità e statistica

1500 0.000160455225000 0.0000043457

7.21. m = 9. E(V) = 0.7486374371, sd(V) = 48.91644787

v P(V = v)0 0.96105396634 0.032601480650 0.0057195580280 0.00059167844000 0.000032592550000 0.0000007243

7.22. m = 10. E(V) = 0.7228896221, sd(V) = 38.10367609

v P(V = v)0 0.93534012241 0.051427687722 0.0114793946150 0.00161114311000 0.00013541945000 0.0000061206100000 0.0000001122

7.23. m = 11. E(V) = 0.7138083347, sd(V) = 32.99373346

v P(V = k)0 0.97574759138 0.020203734580 0.0036078097400 0.00041141692500 0.000028373625000 0.0000010580100000 0.0000000160

7.24. m = 12. E(V) = .7167721544, sd(V) = 20.12030014

v P(V = k)0 0.95964316535 0.032208852032 0.0070273859200 0.00101959841000 0.00009540105000 0.000005428025000 0.0000001673100000 0.0000000021

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games8.html (5 di 6) [22/11/2001 17.55.55]

Page 444: Laboratorio virtuale di probabilità e statistica

7.25. m = 13. E(V) = 0.7216651326, sd(V) = 22.68311303

v P(V = k)0 0.92132384561 0.063896937520 0.012315149380 0.0021831401600 0.00025989763500 0.000020062310000 0.000000943450000 0.0000000240100000 0.0000000002

7.26. m = 14. E(V) = 0.7194160496, sd(V) = 21.98977077

v P(V = k)0 0.8980363330631 0.0772588073019 0.01985128544842 0.004181636518310 0.0006082380391100 0.0000597376658000 0.00000381101525000 0.00000014784150000 0.000000003084100000 0.000000000026

7.27. m = 15. E(V) = 0.7144017020, sd(V) = 24.31901706

v P(V = k)0 0.953330460389021 0.0080161441772910 0.0298897195668425 0.00733144064847100 0.00126716258122300 0.000152059509752800 0.0000123424926725000 0.0000006496048850000 0.00000002067708100000 0.00000000035046100000 0.00000000000234

Laboratorio virtuale > Giochi di fortuna > 1 2 3 4 5 6 7 [8]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/games/games8.html (6 di 6) [22/11/2001 17.55.55]

Page 445: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Stima puntuale > [1] 2 3 4 5 6

1. Stimatori

Il modello statistico di base

Al solito, iniziamo introducendo un esperimento casuale definito su un certo spaziocampionario e con misura di probabilità P. Nel modello statistico di base, si ha unavariabile casuale X osservabile che assume valori in S. Ricorda che, in generale, X puòavere struttura complessa. Per esempio, se l'esperimento consiste nell'estrarre uncampione di n oggetti da una popolazione e registrare i valori di interesse, allora

X = (X1, X2, ..., Xn)

dove Xi è il vettore di misurazione per l'oggetto i-esimo. Il caso particolare più importantesi ha quando X1, X2,..., Xn sono indipendenti e identicamente distribuite (IID). In questocaso le n variabili casuali costituiscono un campione casuale di dimensione n dalladistribuzione comune

Ricorda anche che una statistica è una funzione osservabile dell'esito di un esperimentocasuale:

W = h(X).

Pertanto, una statistica è semplicemente una variabile casuale drivata dai dati X, conl'ipotesi che anche W sia osservabile. Tipicamente, anche W è un vettore.

Parametri

In senso generale, un parametro a è una funzione della distribuzione X, che assume valoriin uno spazio parametrico A. Di solito, la distribuzione di X avrà k parametri reali diinteresse, cosicché a = (a1, a2, ..., ak), e A è un sottinsieme di Rk. In molti casi, uno o piùparametri sono sconosciuti e devono essere stimati a partire dal vettore degli esitidell'esperimento X. Questo è uno dei problemi più importanti di tutta la statistica ecostituisce l'oggetto di questo capitolo.

Proprietà fondamentali degli stimatori

Supponiamo di avere un parametro reale ignoto a che assume valori in uno spazioparametrico A R. Una statistica a valori reali W che si utilizza per stimare a è detta,appunto, stimatore di a. Quindi uno stimatore è una variabile casuale e possiede pertantouna distribuzione, valore atteso, varianza e così via. Quando si esegue l'esperimento e siosservano i dati, il valore osservato w (che è un numero) è la stima del parametro a.

L'errore (variabile casuale) è la differenza tra lo stimatore e il parametro:

W - a.

Stimatori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point1.html (1 di 5) [22/11/2001 17.56.05]

Page 446: Laboratorio virtuale di probabilità e statistica

Il valore atteso dell'errore è detto distorsione (bias):

bias(W) = E(W - a)

1. Usa le proprietà del valore atteso per dimostrare che

bias(W) = E(W) - a.

Pertanto, uno stimatore si dice corretto se la distorsione è 0 per ogni valore di a, oequivalentemente se il valore atteso dello stimatore è il valore "vero" del paraemtro che sistima: E(W) = a for a in A.

La qualità di uno stimatore è spesso misurata attravero l'errore quadratico medio:

MSE(W) = E[(W - a)2].

2. Usa le proprietà di valore atteso e varianza per provare che

MSE(W) = var(W) + bias2(W).

In particolare, se lo stimatore è corretto, l'errore quadratico medio di W è semplicementela varianza di W.

L'ideale sarebbe avere stimatori corretti e con errore quadratico medio basso. Ciò perònon è sempre possibile, e l'esercizio 2 mostra la relazione che intercorre tra distorsione eerrore quadratico medio. Nel prossimo paragrafo vedremo un esempio con due stimatoriche sono l'uno multiplo dell'altro; uno è corretto ma l'altro ha errore quadratico medio piùpiccolo.

In ogni caso, se abbiamo due stimatori corretti per a, che indichiamo con U e V, è naturalepreferire quello con minore varianza (errore quadratico medio). L'efficienza relativa di Vrispetto a U è semplicemente il rapporto delle varianze:

var(U) / var(V).

Proprietà asintotiche

Consideriamo il caso particolare in cui la variabile dei dati X ha forma

X = (X1, X2, ...)

e si ha un parametro di interesse a a valori reali. Di nuovo, questa è la situazione che si haquando si estraggono a ripetizione dei campioni dalla popolazione; tipicamente, Xi è ilvettore delle misurazioni sull'i-esima unità del campione. Quindi, per ogni n, (X1, ..., Xn)sono le osservazioni dal campione di dimensione n. In questa situazione, abbiamo unaformula generale che definisce uno stimatore di a per ogni dimensione del campione.Tecnicamente, si ha allora una sequenza di stimatori di a:

Wn = hn(X1, X2, ..., Xn), n = 1, 2, ...

In questo caso si può parlare di proprietà asintotiche degli stimatori per incrementi di n.

Stimatori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point1.html (2 di 5) [22/11/2001 17.56.05]

Page 447: Laboratorio virtuale di probabilità e statistica

La maggior parte delle definizioni sono generalizzazioni immediate delle precedenti.

La sequenza di stimatori Wn si dice asintoticamente corretta per a se

bias(Wn) 0 per n per a in A.

3. Prova che Wn è asintoticamente corretto se e solo se

E(Wn) a per n per a appartenente a A.

Supponiamo che Un e Vn siano due sequenze di stimatori per a, entrambe asintoticamentecorrette. L'efficienza relativa asintotica di Vn rispetto a Un è il seguente limite (se esiste):

limn [var(Un) / var(Vn)].

Ovviamente ci si aspetta che gli stimatori migliorino, in un certo senso, al crescere di n.Più precisamente, la sequenza di stimatori Wn si dice consistente per a se Wn converge inprobabilità ad a per n che tende a infinito:

P[|Wn - a| > r] 0 per n per ogni r > 0 e ogni a appartenente a A.

4. Supponi che MSE(Wn) 0 per n per ogni a appartenente ad A. Prova cheWn è consistente per a. Suggerimento: Usa la disuguaglianza di Markov.

La condizione presentata nell'esercizio 4 è detta consistenza in media quadratica. Quindi,la consistenza in media quadratica implica la consistenza semplice. Questa èsemplicemente una conseguenza del fatto che la convergenza in media quadratica implicala convergenza in probabilità.

Media e varianza campionaria

Supponi che (X1, X2, ..., Xn) sia un campione di dimensione n proveniente dalla

distribuzione di una variabile casuale a valori reali X con media µ e varianza d2. Ricordache media campionaria e varianza sono definite rispettivamente come

Mn = (1 / n) i = 1, ..., n Xi.

Sn2 = [1 / (n - 1)] i = 1, ..., n (Xi - Mn)2.

Le proprietà di queste statistiche sono esaminate in dettaglio nel capitolo sui campionicasuali. Ribadiremo qui alcune di queste proprietà, focalizzando l'attenzione sullequestioni di stima.

5. Mostra che

E(Mn) = µ, per cui Mn è uno stimatore corretto di µ.1.

Stimatori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point1.html (3 di 5) [22/11/2001 17.56.05]

Page 448: Laboratorio virtuale di probabilità e statistica

var(Mn) = d2 / n, so Mn è uno stimatore consistente per µ.2.

6. Nell'esperimento della media campionaria, seleziona la distribuzione gamma.Incrementa la dimensione del campione con la barra di scorrimento e osservagraficamente e numericamente le proprietà di consistenza e correttezza. Simula 1000replicazioni aggiornando ogni 10.

7. Lancia l'applet stima della distribuzione normale 1000 volte, aggiornando ogni 10,con diversi valori dei parametri. In ciascun caso, confronta la distorsione empirica el'errore quadratico medio di Mn coi valori teorici.

La consistenza di Mn come stimatore di µ è semplicemente la legge debole dei grandinumeri. Inoltre, ci sono molti casi particolari dei risultati dell'esercizio 5. Vedi ilparagrafo Distribuzioni empiriche nel capitolo sui campioni casuali per ulteriori dettagli.

Se X = IA, ovvero la variabile indicatrice di un evento A con probabilità p, allora lamedia campionaria di Xi, i = 1, 2, ..., n è la frequenza relativa fn di A. Quindi, fn èuno stimatore corretto e consistente di p.

Se F è la funzione di ripartizione di X, allora dato x, la funzione di ripartizione

empirica Fn(x) è semplicemente la media del campione casuale I{Xi x}, i = 1, 2,..., n. Quindi Fn(x) è uno stimatore corretto e consistente di F(x).

Se X è discreta e f indica la funzione di densità di X, allora, dato x, la funzione diensità empirica fn(x) è semplicemente la media campionaria del campione casuale1{Xi = x}, i = 1, 2, ..., n. Quindi fn(x) è uno stimatore corretto e consistente di f(x).

8. Nell'esperimento della concordanza, la variabile casuale è il numero di successi.Simula 1000 replicazioni aggiornando ogni 10 e osserva la convergenza

della media campionaria al valore atteso della distribuzione1.

della deviazione standard campionaria a quella della distribuzione2.

della funzione di densità empirica a quella teorica3.

Nei seguenti esercizi, assumiamo che d4 = E[(X - µ)4] sia finito.

9. Mostra che

E(Sn2) = d2 per cui Sn

2 è uno stimatore corretto di d2.a.

var(Sn2) = (1 / n)[d4 - (n - 3)d4 / (n - 1)] so Sn

2 è uno stimatore consistente di d2.b.

10. Simula l'esperimento esponenziale 1000 volte aggiornando ogni 10. Osserva laconvergenza della deviazione standard campionaria a quella della distribuzione.

Reicorda che, se µ è noto, uno stimatore naturale di d2 è

Wn2 = (1 / n) i = 1, ..., n (Xi - µ)2.

Stimatori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point1.html (4 di 5) [22/11/2001 17.56.05]

Page 449: Laboratorio virtuale di probabilità e statistica

11. Dimostra che

E(Wn2) = d2 so Wn

2 è uno stimatore corretto di d2.1.

var(Wn2) = (1 / n)(d4 - d4)so Wn

2 è uno stimatore consistente per d2.2.

12. Prova che l'efficienza relativa asintotica di Sn2 rispetto a Wn

2 è 1.

13. Replica la stima della distribuzione normale 1000 volte, aggiornando ogni 10, pervalori diversi dei parametri. In ciascun caso, confronta la distorsione empirica e l'errorequadratico medio di Sn

2 e Wn2 coi loro valori teorici. Quale stimatore sembra funzionare

meglio?

Gli stimatori di media e varianza che abbiamo considerato in questo paragrafo sono in uncerto senso naturali. Per altri tipi di parametri però non è immediatamente evidente comeottenere degli stimatori ragionevoli. Nei prossimi paragrafi si esaminerà il problema dellacostruzione degli stimatori.

Laboratorio virtuale > Stima puntuale > [1] 2 3 4 5 6Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Stimatori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point1.html (5 di 5) [22/11/2001 17.56.05]

Page 450: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Campioni casuali > 1 2 3 4 5 [6] 7 8 9

6. Proprietà dei campioni normali

Supponiamo che (X1, X2, ..., Xn) sia un campione casuale estratto da una distribuzionenormale con media µ e deviazione standard d. In questo paragrafo, enunceremo alcuneproprietà speciali di media campionaria, varianza campionaria e altre importantistatistiche.

Media campionaria

Richiamiamo in primo luogo la definizione di media campionaria

M = (1 / n) i = 1, ..., n Xi.

La distribuzione M segue dalle proprietà delle variabili normali indipendenti:

1. Prova che M è distribuita normalmente con media µ e varianza d2 / n.

2. Mostra che Z = (M - µ) / (d / n1/2) ha distribuzione normale standardizzata.

La variabile standardizzata Z si incontrerà in diversi casi, più avanti.

Lo stimatore per d2 quando µ è nota

Ricorda che, µ è noto, uno stimatore naturale della varianza d2 è

W2 = (1 / n) i = 1, ..., n (Xi - µ)2.

Anche se l'ipotesi che µ sia noto è di solito irrealistica, W2 è semplice da analizzare e saràusato in alcune dimostrazioni più avanti.

3. Mostra che nW2 / d2 ha distribuzione chi-quadro con n gradi di libertà.

4. Usa il risultato dell'esercizio precedente per mostrare che

E(W2) = d2.1.

var(W2) = 2d4 / n.2.

Indipendenza di media campionaria e varianza campionaria

Ricorda che la varianza campionaria è definita come

S2 = [1 / (n - 1)] i = 1, ..., n (Xi - M)2.

Proprietà dei campioni normali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample6.html (1 di 3) [22/11/2001 17.56.10]

Page 451: Laboratorio virtuale di probabilità e statistica

Il prossimo gruppo di esercizi dimostra che la media campionaria M e la varianzacampionaria S2 sono indipendenti. Notiamo in primo luogo un fatto semplice mainteressante, che vale per campioni casuali provenienti da ogni distribuzione e non soloper la normale.

5. Usa le proprietà della covarianza per dimostrae che, per ogni i, M e Xi - M sonoincorrelati:

La nostra analisi fa perno sulla media campionaria M e sul vettore di scarti dalla mediacampionaria:

Y = (X1 - M, X2 - M, ..., Xn - 1 - M).

6. Prova che

Xn - M = - i = 1, ..., n - 1 (Xi - M).

e dimosra quindi che S2 può essere scritto con funzione di Y.

7. Dimostra che M e il vettore Y hanno distribuzione normale multivariata congiunta.

8. Usa il risultato dell'esercizio precedente per mostrare che M e il vettore Y sonoindipendenti.

9. Dimostra infine che M e S2 sono indipendenti.

La varianza campionaria

Possiamo ora determinare la distribuzione della varianza campionaria S2.

10. Prova che nW2 / d2 = (n - 1)S2 / d2 + Z2 dove W2 e Z sono quelli introdotti inprecedenza.Suggerimento: Nella sommatoria del membro di sinistra aggiungi e sottrai M ed espandi.

11. Dimostra che (n - 1) S2 / d2 ha distribuzione chi-quadro con n - 1 gradi di libertà.Suggerimento: Usa il risultato dell'esercizio precedente, l'indipendenza e le funzionigeneratrici dei momenti.

12. Usa il risultato dell'esercizio precedente per mostrare che

E(S2) = d2.1.

var(S2) = 2d4 / (n - 1)2.

Ovviamente si tratta di casi particolari di quelli ottenuti in precedenza.

La statistica T

La prossima serie di esercizi individuerà òa distribuzione di

Proprietà dei campioni normali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample6.html (2 di 3) [22/11/2001 17.56.10]

Page 452: Laboratorio virtuale di probabilità e statistica

T = (M - µ) / (S / n1/2).

13. Dimostra che T = Z / [V / (n - 1)]1/2, dove Z è quella introdtta in precedenza e V =(n - 1) S2 / d2.

14. Usa i risultati ottenuti per mostrare che T ha distribuzione t con n - 1 gradi dilibertà.

La variabile T ha un ruolo fondamentale nella costruzione di intervalli di conidenza enell'esecuzione di test di ipotesi su µ.

Laboratorio virtuale > Campioni casuali > 1 2 3 4 5 [6] 7 8 9Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Proprietà dei campioni normali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample6.html (3 di 3) [22/11/2001 17.56.10]

Page 453: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Campioni casuali > 1 2 3 4 5 6 7 [8] 9

8. Grafici quantile-quantile

Derivazione del test

Supponiamo di osservare dati a valori reali

x1, x2, ..., xn

da un campione casuale di dimensione n. Siamo interessati a sapere se i dati possonoragionevolmente provenire da una distribuzione continua (a valori in un certo intervallo)con funzione di ripartizione F.

Per prima cosa, ordiniamo i dati dal più piccolo al più grande (i valori osservati dellestatistiche d'ordine)

x(1) < x(2) < ··· < x(n).

1. Prova che x(i) è il quantile del campione di ordine i / (n + 1). .

2. Dimostra che il quantile di ordine i/ (n + 1) della distribuzione è

yi = F-1[i / (n + 1)]

Se i dati provengono relamente dalla distribuzione ipotizzata, allora ci si deve attendereche i punti

(x(i), yi); i = 1, 2, ..., n

giacciano nei pressi della diagonale y = x; al contrario, deviazioni marcate da questa lineaindicano che i dati non sono stati generati da quella distribuzione. Il grafico di questi puntiè noto come grafico quantile-quantile.

Negli esercizi che seguono, analizzeremo i grafici quantile-quantile per le distribuzioninormale, esponenziale, e uniforme.

3. Nell'applet quantile-quantile, scegli la distribuzione normale standardizzata e poni ladimensione del campione a n = 20. Per ciascuna delle distribuzioni sottoindicate, genera50 replicazioni e osserva la forma del disegno probabilistico.

Normale standardizzata1.

Uniforme (0, 1)2.

Esponenziale (1)3.

4. Nell'applet quantile-quantile, scegli la distribuzione uniforme (0, 1) e poni ladimensione del campione a n = 20. Per ciascuna delle distribuzioni sottoindicate, genera50 replicazioni e osserva la forma del disegno probabilistico.

Grafici quantile-quantile

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample8.html (1 di 3) [22/11/2001 17.56.15]

Page 454: Laboratorio virtuale di probabilità e statistica

Normale standardizzata1.

Uniforme (0, 1)2.

Esponenziale (1)3.

5. Nell'applet quantile-quantile, scegli la distribuzione esponenziale (1) e poni ladimensione del campione a n = 20. Per ciascuna delle distribuzioni sottoindicate, genera50 replicazioni e osserva la forma del disegno probabilistico.

Normale standardizzata1.

Uniforme (0, 1)2.

Esponenziale (1)3.

Famiglie di posizione e scala

In genere non si cerca di adattare i dati a una distribuzione specifica, ma piuttosto a unafamiglia parametrica di distribuzioni (come la normale, l'uniforme o l'esponenziale).Normalmente infatti non possiamo lavorare con una distribuzione specifica perché non neconosciamo i parametri. Fortunatamente, il metodo del grafico quantile-quantile èsemplicemente estendibile alle famiglie di posizione e scala di distribuzioni.

Supponi che G sia una funzione di ripartizione data. Ricorda che la famiglia di posizionee scala associata a G ha funzione di ripartizione

F(x) = G[(x - a) / b],

dove a è il parametro di posizione e b > 0 è il parametro di scala.

6. Per p appartenente a (0, 1), sia zp il quantile di ordine p per G e yp il quantile diordine p per F. Prova che

yp = a + b zp.

Dall'esercizio 6 segue che se il grafico costruito con la funzione di ripartizione F è quasilineare (e in particolare, se è prossimo alla diagonale), allora il disegno probabilisticocostruito con la funzione di ripartizione G sarà anch'esso quasi lineare. Pertanto, possiamousare la funzione di ripartizione G anche senza conoscere i parametri.

7. Nell'esperimento quantile-quantile, scegli la distribuzione normale con media 5 edeviazione standard 2 e poni la dimensione del campione a n = 20. Per ciascuna delledistribuzioni sottoindicate, genera 50 replicazioni e osserva la forma del disegnoprobabilistico.

Normale standardizzata1.

Uniforme (0, 1)2.

Esponenziale (1)3.

8. Nell'esperimento quantile-quantile, scegli la distribuzione uniforme sull'intervallo(4, 10) e poni la dimensione del campione a n = 20. Per ciascuna delle distribuzioni

Grafici quantile-quantile

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample8.html (2 di 3) [22/11/2001 17.56.15]

Page 455: Laboratorio virtuale di probabilità e statistica

sottoindicate, genera 50 replicazioni e osserva la forma del disegno probabilistico.

Normale standardizzata1.

Uniforme (0, 1)2.

Esponenziale (1)3.

9. Nell'esperimento quantile-quantile, scegli la distribuzione esponenziale conparametro 3 e poni la dimensione del campione a n = 20. Per ciascuna delle distribuzionisottoindicate, genera 50 replicazioni e osserva la forma del disegno probabilistico.

Normale standardizzata1.

Uniforme (0, 1)2.

Esponenziale (1)3.

Esercizi numerici

10. Traccia il disegno probabilistico normale coi dati di Michelson sulla velocità dellaluce. Interpreta i risultati.

11. Traccia il disegno probabilistico normale coi dati di Cavendish sulla densità dellaterra. Interpreta i risultati.

12. Traccia il disegno probabilistico normale coi dati sulla parallasse solare di Short.Interpreta i risultati.

13. Traccia il disegno probabilistico normale per la variabile lunghezza dei petali suidati di Fisher sugli iris, nei casi seguenti. Confronta i risultati.

Tutte le varietà1.

Solo la Setosa2.

Solo la Verginica3.

Solo la Versicolor4.

Interpretazione dei risultati

Ci aspettiamo che tu abbia tratto alcune conclusioni da questi esperimenti. In primo luogo,il metodo del disegno probabilistico è di poca utilità se si dispone di campioni di piccoladimensione. Se si hanno solo cinque punti, ad esempio, è quasi impossibile valutare lalinearità del grafico risultante. Anche con campioni più grandi, tuttavia, i risultati possonoessere ambigui. Per esempio, un campione estratto da una distribuzione normale di solitosembra adattarsi bene anche a una distribuzione uniforme. Per trarre conclusioni adeguateè di grande aiuto la pratica con diversi tipi di distribuzione.

Laboratorio virtuale > Campioni casuali > 1 2 3 4 5 6 7 [8] 9Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Grafici quantile-quantile

http://www.ds.unifi.it/~stefanin/VL/VL_IT/sample/sample8.html (3 di 3) [22/11/2001 17.56.15]

Page 456: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli geometrici > 1 [2] 3 4 5

2. Problema dell'ago di Buffon

L'esperimento dell'ago di Buffon è un esperimento casuale antico e ben noto, che prendenome dal Compte De Buffon. L'esperimento consiste nel far cadere un ago su unpavimento di assi di legno. L'evento di interesse è che l'ago vada a cadere suun'intercapedine tra un'asse e l'altra. Stranamente, la probabilità di questo evento conducea una stima statistica del numero pi greco!

Assunzioni

Il primo passo consiste nel definire l'esperimento in termini matematici. Di nuovo,astraiamo gli oggetti fisici assumendo che le assi del pavimento siano identiche e dilarghezza unitaria. Assumeremo inoltre che l'ago abbia lunghezza L < 1 cosicché nonpossa incorciare più di una fessura. Assumeremo infine che le intercapedini tra le assisiano segmenti di retta.

Lanciando l'ago, vogliamo registrare il suo orientamento rispetto alle fessure. Un modoper farlo è registrare l'angolo X che l'estremita superiore dell'ago forma con la retta chepassa per il centro dell'ago parallela alle assi, e la distanza Y dal centro dell'agoall'intercapedine inferiore. Si tratta di variabili casuali semplice per l'esperimento, per cuilo spazio campionario è

S = (0, ) × (0, 1) = {(x, y): 0 < x < , 0 < y < 1}

Di nuovo, l'assunzione che facciamo è di lanciare l'ago "a caso" sul pavimento. Quindi,un'assunzione matematica ragionevole può essere che il vettore aleatorio (X, Y) siadistribuito uniformemente sullo spazio campionario. Per definizione, ciò significa che

P[(X, Y) A] = area(A) / area(S) per A S.

1. Esegui l' esperimento dell'ago di Buffon con le impostazioni predefinite e osservagli esiti sullo spazio campionario. Osserva come i punti della dispersione sembranoriempire lo spazio campionario S in maniera uniforme.

Problema dell'ago di Buffon

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon2.html (1 di 5) [22/11/2001 17.56.23]

Page 457: Laboratorio virtuale di probabilità e statistica

La probabilità della caduta su una fessura

L'evento di interesse C è quello in cui l'ago cade su una fessura tra le assi.

2. Usa la trigonometria per mostrare che C può essere scritto come segue in terminidelle variabili angolo e distanza:

C = {Y < (L / 2)sin(X)} {Y > 1 - (L / 2)sin(X)}

3. Usa l'analisi per mostrare che area(C) = 2L e quindi

P(C) = 2L /

4. Usa quello che sai sulle rette per mostrare che P(C) in funzione di L, ha il graficoseguente:

5. Trova la probabilità che l'ago non cada su una fessura.

Le curve

y = (L / 2)sin(x), y = 1 - (L / 2)sin(x)

sono disegnate in blu nel grafico a dispersione, per cui l'evento C è l'unione delle regionitra la curva inferiore e la curva superiore. Pertanto, l'ago cade su una fessura esattamentequando un punto cade nella regione.

6. Nell' Buffon, modifica la lunghezza dell'ago L con la barra a scorrimento e osservacome gli eventi C e Cc cambiano. Esegui l'esperimento con diversi valori di L e confrontal'esperimento fisico coi punti della dispersione. Osserva la convergenza della frequenzarelativa di C alla probabilità di C.

La convergenza della frequenza relativa di un evento (al ripetersi dell'esperimento) allaprobabilità dell'evento è un caso particolare della legge dei grandi numeri.

7. Trova le probabilità dei seguenti eventi nell'esperimento dell'ago di Buffon. In

Problema dell'ago di Buffon

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon2.html (2 di 5) [22/11/2001 17.56.23]

Page 458: Laboratorio virtuale di probabilità e statistica

ciascun caso, disegna l'eveno come sottinsieme dello spazio campionario.

{0 < X < / 2, 0 < Y < 1 / 3}1.

{1/4 < Y < 2 / 3}2.

{X < Y}3.

{X + Y < 2}4.

Stima di pi greco

Supponiamo di eseguire l'esperimento dell'ago di Buffon un numero molto elevato divolte. Per la legge dei grandi numeri, la proporzione degli incroci dev'essere prossima allaprobabilità di incrociare una fessura. Più precisamente, indicheremo il numero di incrocinelle prime n prove con Nn. Nota che Nn è una variabile casuale per l'esperimentocomposito formato da n replicazioni dell'esperiemnto semplice. Quindi, se n è grande,dovremmo avere

Nn / n ~ 2L / e quindi ~ 2Ln / Nn.

Questa è la celebre stima di Buffon di &pi;. Nella simulazione, tale stima è calcolata adogni ciclo ed è mostrata numericamente nella seconda tabella e visualmente nel grafico abarre.

8. Esegui l' esperimento dell'ago di Buffon con lunghezza dell'ago L = 0.3, 0.5, 0.7, e1. In ciascun caso, osserva la stima di pi all'evolversi della simulazione.

Analizziamo più attentamente il problema della stima. Per ciascuna esecuzione j si ha lavariabile indicatore

Ij = 1 se l'ago incrocia una fessura alla j-esima replicazione; Ij = 0 altrimenti

Queste variabili indicatrici sono indipendenti e identicamente distribuite, poiché stiamoassumendo replicazioni indipendenti dell'esperimento. Quindi, la sequenza forma unprocesso di prove Bernoulliane.

9. Prova che il numero di incorci nelle prime n replicazioni dell'esperimento è

Nn = I1 + I2 + ··· + In.

10. Usa il risultato dell'esercizio 9 per mostrare che il numero di incroci nelle prime nreplicazioni ha distribuzione binomiale con parametri n e

p = 2L /

11. Usa il risultato dell'esercizio 9 per mostrare che media e varianza del numero diincroci sono

E(Nn) = 2Ln / 1.

var(Nn) = (2Ln / )(1 - 2L / )2.

Problema dell'ago di Buffon

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon2.html (3 di 5) [22/11/2001 17.56.23]

Page 459: Laboratorio virtuale di probabilità e statistica

12. Usa la legge forte dei grandi numeri per mostrare che

Nn / 2Ln 1 / per n 1.

2Ln / Nn per n 2.

Si hanno quindi due stimatori:

Nn / 2Ln per 1 / .1.

2Ln / Nn per .2.

Proprietà

Lo stimatore (1) gode di molte importanti proprietà statistiche. In primo luogo, è corretto,poiché il valore atteso dello stimatore è pari al parametro:

13. Usa l'esercizio 11 e le proprietà del valore atteso per mostrare che

E(Nn / 2Ln) = 1 / .

Poiché lo stimatore è corretto, la varianza coincide con l'errore quadratico medio:

var(Nn / 2Ln) = E[(Nn / 2Ln - 1 / )2]

14. Usa l'esercizio 4 e le proprietà della varianza per mostrare che

var(Nn / 2Ln) = ( - 2L) / (2L n 2)

15. Mostra che la varianza dell'esercizio 11 è funzione decrescente della lunghezzadell'ago L.

L'esercizio 15 mostra che lo stimatore (1) migliora all'aumentare della lunghezza dell'ago.Lo stimatore (2) è distorto e tende a sovrastimare pi:

16. Usa la disuguaglianza di Jensen per provare che

E(2Ln / Nn) .

Anche lo stimatore (2) migliora all'aumentare della lunghezza dell'ago, ma non è faciledimostrarlo formalmente. In ogni caso, puoi vederlo empiricamente.

17. Nell'esperimento dell'ago di Buffon, poni la frequenza di aggiornamento a 100.Simula 5000 replicazioni, con L = 0.3, L = 0.5, L = 0.7, e L = 1. Osserva come sembrafunzionare lo stimatore in ciascun caso.

Infine, dobbiamo notare che, all'atto pratico, l'esperimento dell'ago di Buffon non è unmodo molto efficiente di approssimare pi. Seguendo Richard Durrett, la stima di pi conun'approssimazione di quattro posizioni decimali con L = 1 / 2 richiederebbe circa 100milioni di lanci!

Problema dell'ago di Buffon

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon2.html (4 di 5) [22/11/2001 17.56.23]

Page 460: Laboratorio virtuale di probabilità e statistica

18. Simula l'esperimento dell'ago di Buffon con frequenza di aggiornamento 100 fino ache la stima di pi sembra consistentemente corretta alla seconda posizione decimale. Notail numero di replicazioni necessarie. Prova con le lunghezze L = 0.3, L = 0.5, L = 0.7, e L= 1 e confronta i risultati.

Laboratorio virtuale > Modelli geometrici > 1 [2] 3 4 5Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Problema dell'ago di Buffon

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon2.html (5 di 5) [22/11/2001 17.56.23]

Page 461: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Il processo di Poisson > [1] 2 3 4 5 6 7 8

1. Introduzione

Consideriamo ora un processo in cui i punti si presentano casualmente nel tempo. La frasepunti nel tempo è volutamente generica, e può rappresentare ad esempio:

Il tempo al quale un pezzo di materiale radioattivo emette determinate particelle.●

Il tempo in cui le automobili arrivano a una stazione di servizio.●

Il tempo in cui arrivano a un server delle richeste dai computer periferici.●

Il tempo in cui si verificano incidenti a un certo incrocio.●

Si vedrà che, sotto alcune assunzioni di base che hanno a che fare con indipendeza euniformità nel tempo, un singlo, modello probabilistico a un parametro governa tutti iprocessi di questo tipo. Tale risultato è sorprendente ed è una delle ragioni per cui ilprocesso di Poisson (che prende nome da Simeon Poisson) è uno dei più importanti intutta la teoria della probabilità.

Variabili casuali

Ci sono due categorie di variabili casuali che possiamo utilizzare per descrivere questotipo di processo, che corrispondono a due diversi tipi di esperimento.

Per cominciare, sia Tk il tempo del k-esimo arrivo per k = 1, 2, ... L'esperimento gammaconsiste nell'eseguire il processo finché si verifica il k-esimo arrivo e registrare il tempo

di tale arrivo. Sia invece Nt il numero di arrivi nell'intervallo (0, t] per t 0.L'esperimento di Poisson consiste nell'eseguire il processo fino al tempo t e registrare ilnumero di arrivi. Notiamo che

Nt k se e solo se Tk t

poiché ognuno di tali eventi indica che ci sono almeno k arrivi nell'intervallo (0, t].

L'assunzione di base

L'assunzione che faremo può essere presentata intuitivamente (ma non correttamente)come segue: se fissiamo un tempo t, sia costante o dipendente dai tempi di arrivo, allora ilprocesso dopo il tempo t è indipendente dal processo prima del tempo t e si comporta,probabilisticamente, come il processo originale. Quindi il processo casuale ha proprietà dirigenerazione. Precisare meglio quest'assunzione ci consentire di ricavare la distribuzionedi:

I tempi tra gli arrivi,●

I tempi di arrivo,●

Il numero di arrivi in un intervallo.●

1. Pensa all'applicazione di base in ciascuna delle applicazioni specifiche riportate

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson1.html (1 di 2) [22/11/2001 17.56.26]

Page 462: Laboratorio virtuale di probabilità e statistica

sopra.

Laboratorio virtuale > Il processo di Poisson > [1] 2 3 4 5 6 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson1.html (2 di 2) [22/11/2001 17.56.26]

Page 463: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Il processo di Poisson > 1 2 3 4 [5] 6 7 8

5. Splitting

Il processo di due tipi

Supponiamo che ciascuno degli arrivi in un processo di Poisson sia, indipendenetementedagli altri, di due tipi: tipo 1 con probabilità p e tipo 0 con probabilità q = 1 - p.

Ciò è a volte detto splitting di un processo di Poisson. Per esempio, supponi che gli arrivisiano emissioni radioattive e che ciascuna particella possa essere rilevata (tipo 1) omancata (tipo 0) da un misuratore. Se gli arrivi sono automobili a una stazione di servizio,ciascun guidatore può essere maschio (tipo 1) o femmina (tipo 0).

La distribuzione congiunta

Siamo interessati agli arrivi di tipo 1 e di tipo 0 congiuntamente. Sia

Mt = numero di arrivi di tipo 1 in (0, t].1.

Wt = Nt - Mt = numero di arrivi di tipo 0 in (0, t].2.

1. Usa la definizione di probabilità condizionata per mostrare che

P(Mt = j, Wt = k) = P(Mt = n | Nt = j + k)P(Nt = j + k).

2. Dimostra che, in termini di tipo, gli arrivi successivi formano un processo di proveBernoulliane, per cui se ci sono j + k arrivi nell'intervallo (0, t], allora il numero di arrividi tipo 1 ha distribuzione binomiale con parametri j + k e p.

3. Usa i risultati degli esercizi 1 e 2 per mostrare che

P(Mt = j, Wt = k) = [e-rpt (rpt)j / j!][e-rqt (rqt)k / k!] per j, k = 0, 1, ...

Segue dall'esercizio 3 che il numero di arrivi di tipo 1 nell'intervallo (0, t] e il numero diarrivi di tipo o nell'intervallo (0, t] sono indipendenti e hanno distribuzione di Poisson conparametri rispettivamente rpt e rqt. Più in generale, gli arrivi di tipo 1 e di tipo 0 formanodue distinti (e indipendenti) processi di Poisson.

4. Nell'esperimento di Poisson di due tipi modifica r, p e t con le barre a scorrimento eosserva la forma delle funzioni di densità. Poni r = 2, t = 3 e p = 0.7. Simula 1000replicazioni, aggiornando ogni 10, e osserva la convergenza delle frequenze relative allefunzioni di densità.

5. Nell'esperimento di Poisson di due tipi, poni r = 2, t = 3 e p = 0.7. Simula 500replicazioni, aggiornando ogni volta e calcola le appropriate frequenze relative peranalizzare empiricamente l'indipendenza tra numero di donne e numero di uomini.

Splitting

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson5.html (1 di 3) [22/11/2001 17.56.30]

Page 464: Laboratorio virtuale di probabilità e statistica

6. Supponi che le automobili arrivino a una stazione di servizio seguendo il modellodi Poisson, con velocità r = 20 l'ora. Inoltre, ciascun guidatore può essere,indipendentemente dagli altri, femmina con probabilità 0.6 o maschio con probabilità 0.4.Trova la probabilità che, su un periodo di due ore, si presentino almeno 20 donne e 15uomini.

Stima del numero di arrivi

Supponiamo che Nt non sia osservabile, ma che lo sia Mt. Questa situazione si presenta,ad esempio, se gli arrivi sono emissioni radioattive, e quelle di tipo 1 sono rilevate da unmisuratore, mentre quelle di tipo 0 gli sfuggono. Vogliamo stimare il numero totale diarrivi Nt in (0, t] dopo aver osservato il numero di arrivi di tipo 1 Mt.

7. Prova che la distribuzione condizionata di Nt dato Mt = k è identica alladistribuzione di k + Wt.

8. Prova che E(Nt | Mt = k) = k + r(1 - p)t.

Quindi, se la velocità complessiva r e la probabilità p che un arrivo sia di tipo 1 sono note,segue dalla teoria generale del valore atteso condizionato che

Mt + r(1 - p)t

è il miglior stimatore di Nt basata su Mt nel senso dei minimi quadrati.

9. Prova che E{[Nt - (Mt + r(1 - p)t)]2} = r(1 - p)t.

10. Nell'esperimento di Poisson di due tipi, poni r = 3, t = 4 e p = 0.8. Simula 100replicazioni, aggiornando ogni volta.

Calcola la stima di Nt basata su Mt per ciascuna replicazione.1.

Calcola, per tutte e 100 le replicazioni, la media della somma dei quadrati deglierrori.

2.

Confronta il risultato di (b) con quello dell'esercizio 9.3.

11. Supponi che un frammento di materiale radioattivo emetta particelle seguendo ilmodello di Poisson con velocità r = 100 al secondo. Supponi inoltre che lo strumento dimisura che si utilizza individui ciascuna particella emessa, indipendentemente dalle altre,con probabilità 0.9. Se in un periodo di 5 secondi sono registrate 465 particelle,

Stima il numero di particelle emesse.1.

Calcola l'errore quadratico medio della stima.2.

Il processo di k tipi

Supponi che ciascun arrivo del processo di Poisson sia, indipendentemente dagli altri, diuno dei k tipi: i con probabilità pi per i = 1, 2, ..., k. Ovviamento dobbiamo avere

Splitting

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson5.html (2 di 3) [22/11/2001 17.56.30]

Page 465: Laboratorio virtuale di probabilità e statistica

p1 + p2 + ··· + pk = 1.

Sia Mi(t) il numero di arrivi di tipo i in (0, t] per i = 1, 2, ..., k.

12. Mostra che, per dati t, M1(t), M2(t), ..., Mk(t) sono indipendenti e Mi(t) hadistribuzione di Poisson con parametro rpit.

Più in generale, M1(t), M2(t), ..., Mk(t) sono processi di Poisson indipendenti.

Laboratorio virtuale > Il processo di Poisson > 1 2 3 4 [5] 6 7 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Splitting

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson5.html (3 di 3) [22/11/2001 17.56.30]

Page 466: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Il processo di Poisson > 1 2 3 4 5 6 [7] 8

7. Processi di Poisson in più dimensioni

Il processo

Il processo di Poisson può essere definito in un contesto bidimensionale per modellarepunti nello spazio. Alcuni esempi specifici di "punti casuali" sono

Difetti in un foglio di materiale.1.

Uvetta in una torta.2.

Stelle nel cielo.3.

Il modo in cui abbiamo introdotto il processo di Poisson su [0, ), partendo dai tempiinterarrivo, non si generalizza facilmento, poiché tale costruzione dipende dall'ordine deinumeri reali. Tuttavia, la costruzione alternativa motivata dall'analogia con le proveBernoulliane, si presta in modo molto naturale.

Fissato k, sia m la misura in k-dimensioni, definita su sottinsiemi di Rk. Pertanto, se k = 2,m(A) è l'area di A e se k = 3, m(A) è il volume di A. Sia ora D un sottinsieme di Rk econsideriamo un processo stocastico che genera punti casuali in D. Per A D con m(A)positivo e finito, sia N(A) il numero di punti casuali in A. Tale collezione di variabilicasuali è un processo di Poisson su D con parametro di densità r se i seguenti assiomisono soddisfatti:

N(A) ha distribuzione di Poisson con parametro r m(A).1.

If A1, A2, ..., An sono sottinsiemi mutualmente disgiunti di D allora N(A1), N(A2),..., N(An) sono indipendenti.

2.

1. Nel processo di Poisson in due dimensioni, modifica l'ampiezza w e la velocità r.Osserva forma e posizione della densità di N. Con w = 3 e r = 2, simula 1000 replicazioniaggiornando ogni 10. Osserva la convergenza della densità empirica a quella teorica.

Usando i risultati precedentemente ricavati sui momenti, segue che

E[N(A)] = r m(A), var[N(A)] = r m(A).

In particolare, r può essere interpretato come densità attesa dei punti casuali, giustificandocosì il nome del parametro

2. Nel processo di Poisson in due dimensioni, modifica l'ampiezza w e la velocità r.Osserva dimensione e poisizone della barra media/deviazione standard. Con w = 4 e r = 3,simula 1000 replicazioni, aggiornando ogni 10, e osserva la convergenza dei momentiempirici ai loro valori teorici.

3. Supponi che i difetti in un foglio di materiale seguano il modello di Poisson con

Processi di Poisson in più dimensioni

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson7.html (1 di 3) [22/11/2001 17.56.37]

Page 467: Laboratorio virtuale di probabilità e statistica

una media di 1 difetto ogni 2 metri quadrati. In un foglio di 5 metri quadrati,

Trova la probabilità che ci siano almeno 3 difetti.1.

Trova media e deviazione standard del numero di difetti.2.

4. Supponi che l'uvetta in un panettone segua il modello di Poisson, con una media di2 uvette per pollice cubico. In un pezzo che misura 3 per 4 per 1 pollici,

Trova la probabilità che ci siano non più di 20 uvette.1.

Trova media e deviazione standard del numero di uvette.2.

5. Supponi che il numero di alberi di una foresta che superano una certa dimensionesegua il modello di Poisson. In una regione di foresta di un chilometro quadrato ci sono40 alberi che superano la dimensione fissata.

Stima il parametro di densità.1.

Utilizzando il parametro di densità stimato, trova la probabilità di trovare almeno100 alberi che superano la dimensione fissata in un chilometro quadrato di foresta.

2.

I punti più vicini

Consideriamo il processo di Poisson in R2 con parametro di densità r. Per t > 0, sia Mt =N(Ct) dove Ct è la regione circolare di raggio t, centrata sull'origine. Sia Z0 = 0 e per k =1, 2, ... sia Zk la distanza del k-esimo punto più vicino all'origine. Notiamo che Zk èanalogo al k-esimo tempo di arrivo per il processo di Poisson su [0, ).

6. Mostra che Mt ha distribuzione di Poisson con parametro t2r.

7. Mostra che Zk t se e solo se Mt k.

8. Mostra che Zk2 ha distribuzione gamma con parametro di forma k e parametro di

velocità r.

9. Mostra che Zk ha funzione di densità

g(z) = 2( r)k z2k - 1 exp(- r z2) / (k - 1)!, z > 0.

10. Mostra che Zk2 - Zk - 1

2, k = 1, 2, ... sono indipendenti e ciascuno hadistribuzione esponenziale con parametro di velocità r.

La distribuzione dei punti casuali

Di nuovo, il processo di Poisson indica il modo più casuale per distribuire punti nellospazio, in un cero senso. Più specificamente, consideriamo il processo di Poisson su Rk

con parametro r. Ricordiamo di nuovo che si considerano sottinsiemi A di Rk con m(A)positivo e finito.

11. Supponi che una regione regione A contenga esattamente un punto casuale. Prova

Processi di Poisson in più dimensioni

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson7.html (2 di 3) [22/11/2001 17.56.37]

Page 468: Laboratorio virtuale di probabilità e statistica

che la posizione X = (X1, X2, ..., Xk) del punto è distribuita uniformemente in A.

Più in generale, se A contiene n punti, allora le posizione dei punti sono indipendenti edistribuite uniformemente in A.

12. Supponi che i difetti in un certo materiale seguano il modello di Poisson. Si sa cheun foglio quadrato di lato 2 metri contiene un difetto. Trova la probabilità che il difetto siain una regione circolare del materiale di raggio 1/4 di metro.

13. Supponi che una regione A contenga n punti casuali. Sia B sottinsieme di A.Mostra che il numero di punti contenuti in B ha distribuzione binomiale con parametri n ep = m(B) / m(A).

14. Più in generale, supponi che una regione A sia suddivisa in k sottinsiemi B1, B2, ...,Bk. Prova che la distribuzione condizionata di (N(B1), N(B2), ..., N(Bk)) dato N(A) = n èmultinomiale con parametri n e pi = m(Bi) / m(A), i = 1, 2, ..., k.

15. Supponi che l'uvetta in un panettone segua il modello di Poisson. Si divide unafetta di 6 pollici cubici con 20 uvette in 3 parti uguali. Trova la probabilità che ogni pezzocontenga almeno 6 uvette.

Splitting

Lo splitting di un processo di Poisson in k dimensioni funziona esattamente come losplitting del processo di Poisson standard. In particolare, supponiamo he i punti casualisiano di j tipi diversi e che ciascuno, indipendentemente dagli altri, sia di tipo i conprobabilità pi per i = 1, 2, ..., j. Sia Ni(A) il numero di punti di tipo i in una regione A, peri = 1, 2, ..., j.

16. Prova che

N1(A), N2(A), ..., Nj(A) sono indipendenti1.

Ni(A) ha distribuzione di Poisson con parametro rpi m(A) per i = 1, 2, ..., j.2.

Più in generale, i punti di tipo i formano un processo di Poisson con parametro di densitàrpi per ogni i, e tali processi sono indipendenti.

17. Supponi che i difetti di fabbricazione in un foglio di materiale seguano il modellodi Poisson, con una media di 5 difetti per metro quadro. Ciascun difetto,indipendentemente dagli altri, è lieve con probabilità 0.5, moderato con probabilità 0.3 ograve con probabilità 0.2. Considera un pezzo circolare di materiale con raggio 1 metro.

Trova media e deviazione standard del numero di difetti di ciascun tipo nel pezzo.1.

Trova la probabilità che ci siano almeno 2 difetti di ciascun tipo nel pezzo.2.

Laboratorio virtuale > Il processo di Poisson > 1 2 3 4 5 6 [7] 8Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Processi di Poisson in più dimensioni

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson7.html (3 di 3) [22/11/2001 17.56.37]

Page 469: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Il processo di Poisson > 1 2 3 4 5 6 7 [8]

8. Note conclusive

Simulazione del processo di Poisson in una dimensione

Col metodo utilizzato in questo capitolo, tutte le variabili casuali del processo di Poissonsu [0, ) sono costruite come sequenza di variabili casuali indipendenti, ciascuna condistribuzione esponenziale con parametro r. Per simulare il processo ci basta quindi capirecome simulare variabili casuali indipendenti partendo da numeri casuali.

Ricordiamo che, se F è la funzione di ripartizione di una variabile casuale X, allora F-1 èla funzione quantile. Inoltre, se U è distribuita uniformemente sull'intervallo (0, 1), (percui U è un numero casuale) allora F-1(U) ha la stessa distribuzione di X. Talemetodo-quantile per la simulazione di X richiede, ovviamente, di poter calcolare lafunzione quantile F-1 in forma chiusa. Fortunatamente, ciò è possibile per la distribuzioneesponenziale.

1. Prova che se Uj, j = 1, 2, ... è una sequenza di numeri casuali, allora la sequenzasottostante simula variabili casuali indipendenti, ciascuna distribuita esponenzialementecon parametro di velocità r.

Xj = -ln(1 - Uj) / r, j = 1, 2, ...

Tali variabili simulano quindi i tempi interarrivo per un processo di Poisson su [0, ).Quindi i tempi di arrivo sono simulati come

Tk = X1 + X2 + ··· + Xk per k = 1, 2, ...

e le variabili di conteggio sono simulate come

Nt = #{k: Tk t} per t > 0.

Simulazione di processi di Poisson in più dimensioni

Possiamo anche simulare una variabile di Poisson direttamente. Il metodo generaleproposto nell'esercizio seguente è anche un caso speciale del metodo-quantile presentatopoc'anzi.

2. Supponiamo che f sia una funzione di densità discreta su {0, 1, 2, ...}. Se U èdistribuita uniformemente su (0, 1) (un numero casuale), mostra che la variabile definitaqui sotto ha densità f:

N = j se e solo se f(0) + ··· + f(j - 1) < U f(0) + ··· + f(j).

Possiamo ora utilizzare il risultato dell'esercizio 4 per simulare un processo di Poisson inuna regione D di Rk. Illustreremo questo metodo sul rettangolo D = [a, b] × [c, d] in R2

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson8.html (1 di 4) [22/11/2001 17.56.44]

Page 470: Laboratorio virtuale di probabilità e statistica

dove a < c e b < d. Per cominciare, utilizziamo un numero casuale U per simulare unavariabile casuale N che abbia distribuzione di Poisson con parametro r(b - a)(d - c), comenell'esercizio precedente. Ora, se N = n, siano U1, U2, ..., Un e V1, V2, ..., Vn numericasuali e definiamo

Xi = a + (b - a)Ui, Yi = c + (d - c)Vi per i = 1, 2, ..., n.

3. Mostra che i punti casuali di un processo di Poisson con velocità r su D sonosimulati da

(Xi, Yi), i = 1, 2, ..., n.

Libri

Per ulteriori informazioni sui processi di Poisson e le loro generalizzazioni puoi vedere

Stochastic Processes di Sheldon Ross●

A First Course in Stochastic Processes di Samuel Karlin and Howard Taylor●

Introduction to Stochastic Processes di Ehran Çinlar●

Poisson Processes di JFC Kingman.●

Risposte agli esercizi del paragrafo 2

2.8. Sia X la lunghezza della telefonata.

P(2 < X < 4) = 0.42371.

Q1 = 1.4384, Q2 = 3.4657, Q3 = 6.9315, Q3 - Q1 = 5.49312.

2.9. Sia T la durata

P(T > 2000) = 0.13531.

Q1 = 287.682, Q2 = 693.147, Q3 = 1386.294, Q3 - Q1 = 1098.612.2.

2.14. Sia T il tempo tra le richieste.

E(T) = 0.5, sd(T) = 0.51.

P(T < 0.5) = 0.63212.

Q1 = 0.1438, Q2 = 0.3466, Q3 = 0.6931, Q3 - Q1 = 0.54933.

2.15. Sia X la durata.

r = 0.022311.

E(X) = 44.814, sd(X) = 44.8142.

Q1 = 12.8922, Q2 = 31.0628, Q3 = 62.1257, Q3 - Q1 = 49.2334.3.

2.16. Sia X la posizione del primo difetto.

r = 0.011.

P(X < 200 | X > 150) = 0.3935.2.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson8.html (2 di 4) [22/11/2001 17.56.44]

Page 471: Laboratorio virtuale di probabilità e statistica

sd(X) = 1003.

Q1 = 28.7682, Q2 = 69.3147, Q3 = 138.6294, Q3 - Q1 = 109.86124.

Risposte agli esercizi del paragrafo 3

3.4. 0.1991

3.5. 0.1746

3.10. 2, 0.6325

3.11. r = 1 / 10, k = 4

3.16. 0.5752

3.20. r = 6.67 richieste al minuto.

Risposte agli esercizi del paragrafo 4

4.6. 0.7798

4.7. 0.8153

4.12. 32, 5.657

4.20. 0.8818

4.23. 0.6

4.26. 0.9452

4.30. r = 5.7 al minuto

Risposte agli esercizi del paragrafo 5

5.6. 0.5814

5.11.

5151.

502.

Risposte agli esercizi del paragrafo 6

6.10. 0.7350

6.13.

0.12271.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson8.html (3 di 4) [22/11/2001 17.56.44]

Page 472: Laboratorio virtuale di probabilità e statistica

0.08032.

Risposte agli esercizi del paragrafo 7

7.3.

0.45621.

2.5, 1.5812.

7.4.

0.24261.

24, 4.8992.

7.5.

r = 80 per chilometro quadrato1.

0.01712.

7.12. 0.0491

7.15. 0.2146

7.17.

Lieve: 7.854, 2.802; Moderato: 4.712, 2.171; Grave: 3.142, 1.7721.

0.77622.

Laboratorio virtuale > Il processo di Poisson > 1 2 3 4 5 6 7 [8]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/poisson/poisson8.html (4 di 4) [22/11/2001 17.56.44]

Page 473: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Statistica > A B [C] D E

C. Stima puntuale

Sommario

Stimatori1.

Metodo dei momenti2.

Massima verosimiglianza3.

Stimatori Bayesiani4.

Migliori stimatori corretti5.

Sufficienza, completezza e ancillarità6.

Applets

Stima della distribuzione normale●

Stima della distribuzione uniforme●

Stima della distribuzione gamma●

Stima della distribuzione beta●

Esperimento della moneta non bilanciata●

Citazione

È molto meglio una risposta approssimativa a una domanda giusta, che è spessovaga, piuttosto che una risposta esatta a una domanda sbagliata, che può esserespesso precisa. John Tukey, Annals of Mathematical Statistics, 33 (1962).

Laboratorio virtuale > Statistica > A B [C] D ESommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Stima puntuale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/index.html [22/11/2001 17.56.46]

Page 474: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Statistica > [A] B C D E

A. Distribuzioni notevoli

Sommario

Introduzione1.

La distribuzione normale2.

La distribuzione gamma3.

La distribuzione chi-quadro4.

La distribuzione t di Student5.

La distribuzione F6.

La distribuzione normale bivariata7.

La distribuzione normale multivariata8.

La distribuzione beta9.

La distribuzione di Weibull10.

La distribuzione zeta11.

La distribuzione di Pareto12.

La distribuzione logistica13.

La distribuzione lognormale14.

Note conclusive15.

Applets

Variabile casuale●

Normale bivariata●

Applet quantile●

Laboratorio virtuale > Statistica > [A] B C D ESommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Distribuzioni notevoli

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/index.html [22/11/2001 17.56.48]

Page 475: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni notevoli > [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15

1. Introduzione

In questo capitolo introdurremo una serie di famiglie parametriche di distribuzioni chehanno un ruolo di particolare importanza in statistica. In alcuni casi, queste distribuzionisono rilevanti perché si presentano come limite di altre. In altri casi, l'importanza di unadistribuzione deriva dal fatto che può essere utilizzata per modellare un'ampia varietà difenomeni aleatori. Ciò è di solito importante perché queste famiglie presentano un'ampiavarietà di densità con un numero limitato di parametri (di solito uno o due). Comeprincipio generale, è uile modellare un fenomeno aleatorio col minor numero possibile diparametri; questo è noto come principio di parsimonia. Questo, tra l'altro, è un riflessoparticolare del rasoio di Occam, che prende il nome da Guglielmo di Occam; taleprincipio stabilisce che per descrivere un certo fenomeno è sempre meglio utilizzare ilmodello più semplice.

Molte altre famigile parametriche di distribuzioni sono presentate altrove in questoipertesto, poiché la loro posizione naturale è accanto ai processi aleatori a cui siriferiscono, ovvero:

La distribuzione binomiale●

La distribuzione binomiale negativa●

La distribuzione multinomiale●

La distribuzione ipergeometrica●

La distribuzione ipergeometrica multivariata●

La distribuzione di Poisson●

Prima di iniziare lo studio delle famiglie parametriche notevoli, studieremo due famiglieparametriche generali. La maggior parte delle distribuzioni che saranno presentate inquesto capitolo appartengono a una o a entrambe queste famiglie generali.

Famiglie di posizione e scala

1. Supponiamo che una variabile casuale Z a valori reali abbia una distribuzionecontinua con funzione di densità g e funzione di ripartizione G. Siano a e b costanti con b> 0. Dimostrare che X = a + bZ ha funzione di densità f e funzione di ripartizione F, con

F(x) = G[(x - a) / b]1.

f(x) = (1 / b) g[(x - a) / b]2.

Questa famiglia a doppio parametro è indicata come famiglia di posizione e scalaassociata alla distribuzione data; a è detto parametro di posizione e b parametro di scala.Nel caso in cui b = 1, la famiglia possiede un solo parametro ed è detta famiglia diposizione associata alla distribuzione data; nel caso in cui a = 0, si parla invece di famigliadi scala.

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special1.html (1 di 4) [22/11/2001 17.56.56]

Page 476: Laboratorio virtuale di probabilità e statistica

2. Interpretare graficamente i parametri di posizione e di scala:

Per la famiglia di posizione associata a g, mostrare che il grafico di f si ottienetraslando il grafico di g di a unità, a destra se a > 0 o a sinistra se a < 0.

1.

Per la famiglia di scala associata a g, mostrare che, se b > 1, il grafico di f si ottienestirando in senso orizzontale e comprimendo in senso verticale il grafico di gsecondo il fattore b. Se 0 < b < 1, il grafico di f si ottiene comprimendoorizzontalmente e stirando verticalmente il grafico di g secondo il fattore b.

2.

3. Dimostrare che se Z ha moda z, X ha moda x = a + bz.

Il seguente esercizio mette in relazione le funzioni quantile.

4. Mostrare che

F-1(p) = a + bG-1(p) per p in (0, 1).1.

Se z è un quantile di ordine p di Z, allora x = a + bz è un quantile di ordine p di X.2.

5. Mostrare che la distribuzione uniforme sull'intervallo (a, a + b), con parametri aappartenenete ad R e b > 0 è una famiglia di posizione e scala.

6. Sia g(z) = exp(-z) con z > 0. Questa è la funzione di densità della distribuzioneesponenziale con parametro 1.

Trovare la famiglia di posizione e scala delle densità.1.

Disegnare i grafici.2.

La famiglia di distribuzioni dell'esercizio precedente è nota come distribuzioneesponenziale a due parametri.

7. Sia g(z) = 1 / [ (1 + z2)] con z appartenente a R. Questa è la densità delladistribuzione di Cauchy, che prende il nome da Augustin Cauchy.

Trovare la famiglia di posizione e scala delle densità.1.

Disegnare i grafici.2.

L'esercizio seguente evidenzia le relazioni tra medie e varianze.

8. Mostrare che

E(X) = a + bE(Z)1.

var(X) = b2 var(Z)2.

L'esercizio seguente esamina le relazioni tra le funzioni generatrici dei momenti:

9. Si supponga che Z abbia funzione generatrice dei momenti M. Si mostri che lafunzione generatrice dei momenti di X è data da:

N(t) = exp(ta)M(tb).

Famiglie esponenziali

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special1.html (2 di 4) [22/11/2001 17.56.56]

Page 477: Laboratorio virtuale di probabilità e statistica

Supponiamo che X sia una variabile casuale a valori in S, e che la sua distribuzionedipenda da un parametro a, che assume valori in uno spazio parametrico A. In generale,sia X che a possono essere vettori e non scalari. Indicheremo con f(x | a) la funzione didensità di X in x appartenente a S, individuata da a in A.

La distribuzione di X è una famiglia esponenziale a k parametri se S non dipende da a e sela funzione di densità f può essere scritta come:

f(x | a) = c(a) r(x) exp[ i = 1, ..., k bi(a) hi(x)] con x S, a A.

dove c e b1, b2, ..., bk sono funzioni in A, e r e h1, h2, ..., hk funzioni in S. Si assumeinoltre che k sia il più piccolo possibile. I parametri b1(a), b2(a), ..., bk(a) sono a volteindicati come parametri naturali della distribuzione, e le variabili casuali h1(X), h2(X), ...,hk(X) come statistiche naturali della distribuzione.

10. Supponiamo che X abbia distribuzione binomiale con parametri n e p, dove n èdato e p appartiene a (0, 1). Si mostri che questa distribuzione è una famiglia esponenzialea un parametro, con parametro naturale ln[(p / (1 - p)] e statistica naturale X.

11. Si abbia X con distribuzione di Poisson con parametro a > 0. Si mostri che taledistribuzione è una famiglia esponenziale a un parametro, con parametro naturale ln(a) estatistica naturale X.

12. Sia X con distribuzione binomiale negativa a parametri k e p, con k noto e pappartenente a (0, 1). Mostrare che la distribuzione è una famiglia esponenziale a unparametro, con parametro naturale ln(1 - p) e statistica naturale X.

In molti casi, la distribuzione di una variabile casuale X non può essere una famigliaesponenziale se il supporto definito qui sotto dipende da a.

{x: f(x | a) > 0}.

13. Sia X distribuita uniformemente su (0, a), con a > 0. Mostrare che la distribuzionedi X non è una famiglia esponenziale.

L'esercizio seguente mostra che se si estrae un campione dalla distribuzione di unafamiglia esponenziale, allora la distribuzione del campione casuale è anch'essa unafamiglia esponenziale con la stessa statistica naturale.

14. Supponiamo che la distribuzione di una variabile aleatoria X sia una famigliaesponenziale a k parametri, con parametri naturali b1, b2, ..., bk, e statistiche naturalih1(X), h2(X), ..., hk(X). Siano X1, X2, ..., Xn variabili casuali indipendenti e identicamentedistribuiti come X. Dimostrare che Y = (X1, X2, ..., Xn) è una famiglia esponenziale a kparametri, con parametri naturali b1, b2, ..., bk, e statistiche naturali

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special1.html (3 di 4) [22/11/2001 17.56.56]

Page 478: Laboratorio virtuale di probabilità e statistica

uj(Y) = i = 1, ..., n hj(Xi) per j = 1, 2, ..., k.

Laboratorio virtuale > Distribuzioni notevoli > [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special1.html (4 di 4) [22/11/2001 17.56.56]

Page 479: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni notevoli > 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15

3. La distribuzione gamma

In questo paragrafo studieremo una famiglia di distribuzioni che ricopre particolareimportanza nel calcolo delle probabilità. In particolare i tempi di arrivo nei processi diPoisson hanno distribuzione gamma, e la distribuzione chi-quadro è un caso speciale dellagamma.

La funzione gamma

La funzione gamma è definita per k > 0 da

gam(k) = {s: s > 0} sk - 1exp(-s)ds.

1. Mostrare che l'integrale che definisce la funzione gamma converge per ogni k > 0.

Riportiamo qui sotto il grafico della funzione gamma sull'intervallo (0, 5):

2. Integrare per parti e mostrare che per ogni k > 0,

gam(k + 1) = k gam(k).

3. Usa il risultato dell'esercizio precedente per mostrare che se k è un intero positivo,allora

gam(k) = (k - 1)!.

La distribuzione gamma

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special3.html (1 di 5) [22/11/2001 17.57.04]

Page 480: Laboratorio virtuale di probabilità e statistica

4. Usa la funzione di densità normale standardizzata per mostrare che

gam(1/2) = 1/2.

La distribuzione gamma semplice

5. Mostrare che la seguente funzione è funzione di densità di probabilità per ogni k >0:

f(x) = xk - 1exp(-x) / gam(k) per x > 0.

Una variabile casuale X che possiede questa funzione di densità ha distribuzione gammacon parametro di forma k. L'esercizio seguente mostra che questa famiglia ha una riccavarietà di forme grafiche, e fa capire perché k si chiama parametro di forma.

6. Disegna la funzione di densità di probabilità della distribuzione gamma in ognunodei seguenti casi:

0 < k < 1.1.

k = 1.2.

k > 1. Mostra che la moda è a k - 1.3.

7. Nell'applet variabile casuale, seleziona la distribuzione gamma. Modifica ilparametro di forma e osserva la forma della funzione di densità. Poni k = 3, e replica lasimulazione 1000 volte, con frequenza di aggiornamento di 10, e osserva la convergenzadella funzione di densità empirica a quella teorica.

8. Supponiamo che la durata di un certo apparecchio (in unità di 100 ore) abbiadistribuzione gamma con k = 3. Trova la probabilità che l'apparecchio duri più di 300 ore.

La funzione di ripartizione e la funzione quantile non posseggono forme chiuse esemplici. Valori approssimati di queste funzioni si possono ottenere tramite l' appletquantile.

9. Utilizzando l' applet quantile, trova la mediana, il primo e il terzo quartile e lo scartointerquartile in ciascuno dei casi seguenti:

k = 11.

k = 22.

k = 33.

Il seguente esercizio dà la media e la varianza della distribuzione gamma.

10. Sia X gamma-distribuita con parametro di forma k. Si dimostri che

E(X) = k.1.

var(X) = k.2.

In generale, i momenti possono essere espressi facilmente in termini della funzione

La distribuzione gamma

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special3.html (2 di 5) [22/11/2001 17.57.04]

Page 481: Laboratorio virtuale di probabilità e statistica

gamma:

11. Si abbia X con distribuzione gamma con parametro di forma k. Si dimostri che

E(Xn) = gam(n + k) / gam(k) per n > 0.1.

E(Xn) = k(k + 1) ··· (k + n -1) se n è un intero positivo.2.

L'esercizio seguente individua la funzione generatrice dei momenti.

12. Supponi che X abbia distribuzione gamma con parametro di forma k. Mostra che

E[exp(tX)] = 1 / (1 - t)k per t < 1.

13. Nella simulazione variabile casuale, seleziona la distribuzione gamma. Modifica ilparametro di forma e osserva la dimensione e la posizione della barra media/deviazionestandard. Poni k = 4, e simula 1000 replicazioni con frequenza di aggiornamento 10 eosserva la convergenza dei momenti empirici ai momenti teorici.

14. Immagina che la lunghezza dei petali di un certo tipo di fiore (in cm) abbiadistribuzione gamma con k = 4. Trova la media e la deviazione standard della lunghezzadei petali.

La distribuzione gamma generalizzata

Spesso la distribuzione gamma viene generalizzata aggiungendo un parametro di scala.Pertanto, se Z possiede distribuzione gamma semplice con parametro di forma k, comedefinita sopra, allora per b > 0, X = bZ ha distribuzione gamma con parametro di forma ke parametro di scala b. Il reciproco del parametro di scala è noto come parametro divelocità, specie nel contesto del processo di Poisson. La distribuzione gamma conparametri k = 1 e b è detta distribuzione esponenziale con parametro di scala b (oparametro di velocità r = 1 / b).

Risultati analoghi a quelli presentati poc'anzi seguono da semplici proprietà dellatrasformazione di scala.

15. Sia X gamma-distribuita con parametro di forma k e parametro di scala b. Si mostriche X ha funzione di densità

f(x) = xk - 1 exp(-x / b) / [gam(k)bk] per x > 0.

Si ricordi che l'aggiunta di un parametro di scala non modifica la forma delladistribuzione, ma semplicemente dimensiona il grafico orizzontalmente e verticalmente.In particolare, si hanno le stesse forme elementari presentate nell'esercizio 6.

16. Sia X gamma-distribuita con parametro di forma k e parametro di scala b. Mostrache, se k > 1, la moda è a (k - 1)b.

17. Sia X gamma-distribuita con parametro di forma k e parametro di scala b. Mostrache

La distribuzione gamma

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special3.html (3 di 5) [22/11/2001 17.57.04]

Page 482: Laboratorio virtuale di probabilità e statistica

E(X) = kb.1.

var(X) = kb2.2.

18. Sia X gamma-distribuita con parametro di forma k e parametro di scala b. Mostrache,

E(Xn) = bn gam(n + k) / gam(k) per n > 0.1.

E(Xn) = bn k(k + 1) ··· (k + n -1) se n è un intero positivo.2.

19. Sia X gamma-distribuita con parametro di forma k e parametro di scala b. Mostrache,

E[exp(tX)] = 1 / (1 - bt)k per t < 1 / b.

20. Nell'applet variabile casuale, seleziona la distribuzione gamma. Modifica iparametri e osserva la dimensione e la posizione della barra media/deviazione standard.Poni k = 4 e b = 2, e simula 1000 replicazioni con frequenza di aggiornamento 10 eosserva la convergenza dei momenti empirici ai momenti teorici.

21. Supponi che la durata di un certo congegno (in ore) abbia distribuzione gamma conparametro di forma k = 4 e parametro di scala b = 100.

Trova la probabilità che il congegno duri più di 300 ore.1.

Trova la media e la deviazione standard della durata del congegno.2.

Trasformazioni

La prima trasformazione che presentiamo è semplicemente una ridefinizione delsignificato del parametro di scala.

22. Supponi che X abbia distribuzione gamma con parametro di forma k e parametrodi scala b. Mostra che, se c > 0 allora cX ha distribuzione gamma con parametro di formak e parametro di scala bc.

Si noti che, se il parametro di scala è fisso, la famiglia gamma è chiusa rispetto allasomma di variabili indipendenti.

23. Supporre che X1 abbia distribuzione gamma con paraemtro di forma k1 eparametro di scala b; che X2 abbia distribuzione gamma con paraemtro di forma k2 eparametro di scala b; e che X1 e X2 siano indipendenti. Dimostrare che X1 + X2 hadistribuzione gamma con parametro di forma k1 + k2 e parametro di scala b.Suggerimento: Usare le funzioni generatrici dei momenti.

24. Supponi che X abbia distribuzione gamma con parametro di forma k > 0 eparametro di scala b > 0. Mostra che tale distribuzione è una famiglia esponenziale a dueparametri con parametri naturali k - 1 e 1 / b, e statistiche naturali X e ln(X).

Approssimazione alla normale

La distribuzione gamma

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special3.html (4 di 5) [22/11/2001 17.57.04]

Page 483: Laboratorio virtuale di probabilità e statistica

Dall'esercizio precedente si deduce che, se Y ha distribuzione gamma con paramero diforma intero k ae parametro di scala b, allora

Y = X1 + X2 + ··· + Xk

dove X1, X2, ..., Xk sono indipendenti e distribuite esponenzialmente con parametro b.Segue dal teorema limite centrale che se k è grande (e non necessariamente intero), ladistribuzione gamma può essere approssimata dalla normale con media kb e varianza kb2.Più precisamente, la distribuzione della variabile standardizzata riportata qui sottoconverge alla normale standardizzata per k che tende a infinito:

(Y - kb) / (kb)1/2.

25. Nell'applet variabile casuale, seleziona la distribuzione gamma. Modifica k e b eosserva la forma della funzione di densità. Poni k = 10 e b = 2, e simula 1000 replicazionicon frequenza di aggiornamneto pari a 10 e osserva la convergenza della funzione didensità empirica a quella teorica.

26. Supponi che Y abbia distribuzione gamma con parametri k = 10 e b = 2. Trova leapprossimazioni della normale a:

P(18 < Y < 25).1.

L' 80esimo percentile di Y.2.

Laboratorio virtuale > Distribuzioni notevoli > 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione gamma

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special3.html (5 di 5) [22/11/2001 17.57.04]

Page 484: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15

4. La distribuzione chi-quadro

In questa sezione studieremo una distribuzione di particolare utilità in statistica, che siimpiega nello studio della varianza campionaria quando la distribuzione sottostante ènormale e nel test per la bontà di adattamento.

La funzione di denistà chi-quadro

Per n > 0, la distribuzione gamma con parametro di forma k = n / 2 e parametro di scala 2è detta distribuzione chi-square con n gradi di libertà.

1. Mostra che la distribuzione che-quadro con n gradi di libertà ha funzione di densità

f(x) = xn/2 - 1exp(-x / 2) / [2n/2 gam(n / 2)] per x > 0.

2. Nell'applet variabile casuale, seleziona la distribuzione chi-quadro. Modifica n eosserva la forma della funzione di densità. Poni n = 5, e replica la simulazione 1000 volte,con frequenza di aggiornamento di 10, e osserva la convergenza della funzione di densitàempirica a quella teorica.

3. Mostra che la distribuzione chi-quadro con 2 gradi di libertà è una distribuzioneesponenziale con parametro di scala 2.

4. Disegna la funzione di densità della distribuzione gamma in ciascuno dei seguenticasi:

0 < n < 2.1.

n = 2 (distribuzione esponenziale).2.

n > 2. Mostra che la moda è n - 2.3.

La funzione di ripartizione e al funzione quantile non sono esprimibili in forma chiusatramite le funzioni elementari. Valori approssimati di queste funzioni di possono otteneredalla tavola della distribuzione chi-quadro e dall'applet quantile.

5. Nell'applet quantile , seleziona la distribzuione chi-quadro. Modifica i gradi dilibertà e osserva la forma della funzione di densità e della funzione di riaprtizione. Inognuno dei seguenti casi trova la mediana, il primo e il terzo quartile e lo scartointerquartile.

n = 11.

n = 22.

n = 53.

n = 104.

La distribuzione chi-quadro

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special4.html (1 di 3) [22/11/2001 17.57.11]

Page 485: Laboratorio virtuale di probabilità e statistica

Momenti

Media, varianza, momenti, e funzione generatrice dei momenti della distribuzionechi-quadro possono essere ricavate dai risultati ottenuti per la distribuzione gamma. Neiseguenti esercizi, si supponga che X abbia distribuzione chi-quadro con n gradi di libertà.

6. Mostra che

E(X) = n1.

var(X) = 2n2.

7. Si mostri che

E(Xk) = 2k gam(n/2 + k) / gam(n/2).

8. Dimostrare che

E[exp(tX)] = (1 - 2t)-n/2 per t < 1/2.

9. Nell'applet variabile casuale, scegliere la distribuzione chi-quadro. Modificare n conla barra di scorrimento e osservare la forma e la posizione della barra media/deviazionestandard. Con n = 4, simulare 1000 replicazioni con frequenza di aggiornamento 10 eosservare la convergenza dei momenti empirici a quelli teorici.

Trasformazioni

10. Sia Z una variabile casuale normale standardizzata. Usa le tecniche dicambiamento di variabile per dimostrare che U = Z2 ha distribuzione chi-quadro con ungrado di libertà.

11. Usa le proprietà della funzione generatrice dei momenti della distribuzione gammaper mostrare che, se X ha distribuzione chi-quadro con m gradi di libertà, Y hadistribuzione chi-quadro con n gradi di libertà, e X e Y sono indipendenti, allora X + Y hadistribuzione chi-quadro con m + n gradi di libertà.

12. Siano Z1, Z2, ..., Zn variabili casuali indipendenti con distribuzione normalestandardizzata (ovvero, un campione casuale di dimensione n della distribuzione normalestandardizzata). Si usino i risultati dei due esercizi precedenti per dimostrare che

V = Z12 + Z2

2 + ··· + Zn2

ha distribuzione chi-quadro con n gradi di libertà.

Il risultato di questo esercizio spiega perché la distribuzione chi-quadro sia distinta dallealtre distribuzioni gamma. La somma di variabili casuali normali indipendenti si osservaspesso in statistica. D'altra parte, l'esercizio seguente mostra che ogni variabili casuale condistribuzione gamma può essere trasformata in una variabile con distribuzione chi-quadro.

13. Sia X gamma-distribuita con parametro di forma k e parametro di scala b. Si

La distribuzione chi-quadro

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special4.html (2 di 3) [22/11/2001 17.57.11]

Page 486: Laboratorio virtuale di probabilità e statistica

dimostri che Y = 2X / b ha distribuzione chi-quadro con 2k gradi di libertà.

14. Supponi che un proiettile sia lanciato verso un bersaglio che si trova all'origine diun sistema di coordinate Cartesiano, con unità di misura espressa in metri. Il proiettilecolpisce il punto (X, Y), dove X e Y sono indipendenti e normalmente distribuite conmedia 0 e varianza 100. Il proiettile distrugge il bersaglio se colpisce a meno di 20 metridal bersaglio. Trova la probabilità di questo evento.

Approssimazione alla normale

Dal teorema limite centrale, e dai risultati precedentemente ottenuti per la distribuzionegamma, segue che, se n è sufficientemente grande, la distribuzione chi-quadro con n gradidi libertà può essere approssimata dalla distribuzione normale con media n e varianza 2n.Più precisamente, se X ha distribuzione chi-quadro con n gradi di libertà, allora ladistribuzione della variabile standardizzata

(X - n) / (2n)1/2,

converge alla normale standardizzata per n che tende a infinito:

15. Nell'applet variabile casuale, seleziona la distribuzione chi-quadro. Inizia con n = 1e fai crescere n. Osserva la forma della funzione di densità. Simula 1000 replicazioni(frequenza di aggiornamento 10) con n = 20 e osserva la convergenza della funzione didensità empirica a quella teorica.

16. Supponi che X abbia distribuzione chi-quadro con n = 18 gradi di libertà. Inciascuno dei casi seguenti, calcola e confronta il valore esatto, ottenuto utilizzando l'applet quantile, e l'approssimazione alla normale.

P(15 < X < 20)1.

Il 75esimo percentile di X.2.

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione chi-quadro

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special4.html (3 di 3) [22/11/2001 17.57.11]

Page 487: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15

7. La distribuzione normale bivariata

Definizione

Suppobiamo che U e V siano variabili casuali indipendenti, entrambe con distribuzionenormale . Ci serviremo dei 5 parametri seguenti:

µ1 e µ2 appartenenti a R, d1 e d2 > 0, e p appartenente a [-1, 1].

Siano ora X e Y due nuove variabili casuali definite da

X = µ1 + d1U●

Y = µ2 + d2pU + d2(1 - p2)1/2V.●

La distribuzione congiunta di (X, Y) è detta distribuzione normale bivariata con parametriµ1, µ2, d1, d2 e p.

Proprietà fondamentali

Si utilizzino, per i seguenti esercizi, le proprietà di valore atteso, varianza, covarianza, edella distribuzione normale.

1. Si mostri che X è distribuita normalmente con media µ1 e deviazione standard d1.

2. Si mostri che Y è distribuita normalmente con media µ2 e deviazione standard d2.

3. Si mostri che cor(X, Y) = p.

4. Si mostri che X e Y sono indipendenti se e solo se cor(X, Y) = 0.

5. Nell'applet normale bivariata, modifica le deviazioni standard di X Y con le barre ascorrimento. Osserva il cambiamento di forma delle funzioni di densità di probabilità.Modifica la correlazione e osserva che le funzioni di densità non cambiano.

6. Nell'applet normale bivariata, poni la deviazione standard di X a 1.5 e quella di Y a0.5. Per ciascuno dei seguenti valori di correlazione, simula 2000 replicazioni conaggiornamento ogni 10. Osserva lo scatter di punti di (X, Y) e verifica la convergenzadella funzione di densità empirica a quella teorica: p = 0, p = 0.5, p = -0.5, p = 0.7, p =-0.7, p = 0.9, p = -0.9.

Funzioni di densità

Ora utilizzeremo la tecnica del cambiamento di variabile per trovare la funzione di densitàdi probabilità congiunta di (X, Y).

La distribuzione normale bivariata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special7.html (1 di 3) [22/11/2001 17.57.16]

Page 488: Laboratorio virtuale di probabilità e statistica

7. Mostrare che la trasformazione inversa è data da

u = (x - µ1) / d1.1.

v = (y - µ2) / [d2(1 - p2)1/2] - p(x - µ1) / [d1(1 - p2)1/2].2.

8. Mostrare che il Jacobiano della trasformazione dell'esercizio precedente è

d(u, v) / d(x, y) = 1 / [d1d2(1 - p2)1/2].

Osserva che il Jacobiano è una costante: questo perché la trasformazione è lineare.

9. Usa i risultati degli esercizi precedenti, l'indipendenza di U e V, e la tecnica dicambiamento di variabile per mostrare che la densità congiunta di (X, Y) è

f(x, y) = C exp[Q(x, y)]

dove la costante di normalizzazione C e la forma quadratica Q sono date da

C = 1 / [2 d1d2(1 - p2)1/2]●

Q(x, y) = -[(x - µ1)2 / d12 - 2p(x - µ1)(y - µ2) / (d1d2) + (y - µ2)2 / d2

2] / [2(1 - p2)]●

Se c è costante, l'insieme di punti {(x, y), appartenenti a R2:f(x, y) = c} è detto curva dilivello di f (ovvero punti con la stessa densità di probabilità).

10. Si mostri

Le curve di livello di f sono ellissi con centro (µ1, µ2)1.

Gli assi di tali ellissi sono paralleli agli all'asse delle ascisse e delle ordinate se esolo se p = 0.

2.

11. Nell'applet normale bivariata, poni la deviazione standard di X a 2 e quella di Y a1. Per ognuno dei seguenti valori di correlazione, simula 2000 replicazioni conaggiornamento ogni 10 e osserva la nube di punti nello scatterplot (X, Y): p = 0, p = 0.5, p= -0.5, p = 0.7, p = -0.7, p = 0.9, p = -0.9.

Trasformazioni

L'esercizio seguente mostra che la distribuzione normale bivariata è riproduttiva sottotrasformazioni affini.

12. Siano W = a1X + b1Y + c1 e Z = a2X + b2Y + c2. Usa la formula del cambiamentodi variabile per dimostrare che (W, Z) ha distribuzione normale bivariata. Trova le medie,le varianze e la correlazione.

13. Dimostrare che la distribuzione condizionata di Y dato X = x è normale con mediae varianza

E(Y | X = x) = µ2 + p d2 (x - µ1) / d1.1.

var(Y | X = x) = d22 (1 - p2).2.

La distribuzione normale bivariata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special7.html (2 di 3) [22/11/2001 17.57.16]

Page 489: Laboratorio virtuale di probabilità e statistica

14. Usa la rappresentazione di X e Y in termini delle variabili standardizzate U e V perdimostrare che

Y = µ2 + d2 p (X - µ1) / d1 + d2 (1 - p2)1 / 2 V.

Presentiamo ora un'ulteriore "dimostrazione" del risultato dell'esercizio 13 (ricorda che Xsono V sono indipendenti).

15. Nell'applet normale bivariata, poni la deviazione standard di X a 1.5, quella di Y a0.5, e la correlazione a 0.7.

Simula n = 100 replicazioni, aggiornando ogni volta.1.

Per ogni replicazione, calcola E(Y | X = x), ovvero il valore atteso di Y una voltanoto il valore di X.

2.

Terminate le 100 replicazioni, calcola la radice quadrata dell'errore quadraticomedio tra il valore atteso di Y e il suo valore vero.

3.

Il seguente problema è un ottimo esercizio per impratichirsi con l'uso del cambiamento divariabile e sarà utile quando si parlerà di simulazione di variabili normali.

16. Siano U e V variabili casuali indipendenti con distribuzione normalestandardizzata. Definisci le coordinate polari (R, T) per (U, V) attraverso le equazioni

U = R cos(T), V = R sin(T) dove R > 0 e 0 < T < 2 .

Dimostra che

R ha funzione di densità g(r) = r exp(-r2 / 2), r > 0. La distribuzione di R è dettadistribuzione di Rayleigh.

1.

T ha distribuzione uniforme su (0, 2 ).2.

R e T sono indipendenti.3.

I risultati presentati in questo paragrafo hanno analoghi diretti per il caso più generaledella distribuzione normale multivariata.

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione normale bivariata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special7.html (3 di 3) [22/11/2001 17.57.16]

Page 490: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15

8. La distribuzione normale multivariata

La distribuzione normale multivariata è una naturale generalizzazione della distribuzionenormale bivariata. La forma analitica è molto compatta ed elegante se si utilizzano lematrici di valori attesi e covarianze, e sarebbe di converso terribilmente complessa senzal'uso di esse. Pertanto questo paragrafo presuppone la conoscenza dell'algebra lineare alivello intermedio.

La distribuzione normale multivariata standardizzata

Si abbiano Z1, Z2, ..., Zn, indipendenti e ciascuna avente distribuzione normalestandardizzata. Il vettore aleatorio Z = (Z1, Z2, ..., Zn) è detto avere distribuzione normalesatndardizzata in n-dimensioni.

1. Mostra che E(Z) = 0 (vettore di zeri in Rn).

2. Dimostra che VC(Z) = I (matrice identità di dimensione n × n).

3. Mostra che Z ha funzione di densità

g(z) = [1 / (2 )n/2] exp(-zTz / 2) per z appartenente a Rn.

4. Dimostra che Z ha funzione generatrice dei momenti

E[exp(tTZ)] = exp(tTt / 2) per t appartenente a Rn.

La distribuzione normale multivariata generalizzata

Supponiamo ora che Z abbia distribuzione normale satndardizzata in n-dimensioni. Sia µun vettore in Rn e sia A una matrice n × n invertibile. Si dice allora che il vettore aleatorioX = µ + AZ. ha distribuzione normale in n-dimensioni..

5. Mostra che E(X) = µ.

6. Mostrare che VC(X) = AAT e che questa matrice è invertibile e quindi definitapositiva.

7. Sia V = VC(X) = AAT. Usa il teorema di cambiamento di variabile multivariato perdimostrare che X ha funzione di densità

f(x) = {1 / [(2 )n/2 (det V)1/2]} exp[-(x - µ)T V-1 (x - µ) / 2) per xappartenente a Rn.

8. Dimostrare che X ha funzione generatrice de momenti

La distribuzione normale multivariata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special8.html (1 di 3) [22/11/2001 17.57.21]

Page 491: Laboratorio virtuale di probabilità e statistica

E[exp(tTX)] = exp(tTµ + tTVt / 2) per t appartenente a Rn.

Si osservi che la matrice A che si incontra nella trasformazione non è unica, mentreovviamente lo è la matrice di varianze e covarianze V. In generale, data una matricedefinita positiva V, esistono più matrici invertibili A tali che AAT = V. Tuttavia, unteorema dell'algebra lineare afferma che esiste una sola matrice triangolare bassa L chesoddisfa questa relazione.

9. Trova la matrice triangolare bassa L nel caso della distribuzione normale bivariata.

Trasformazioni

La distribuzione normale multivariata è invariante a due importanti famiglie ditrasformazioni: le trasformazioni affini con una matrice invertibile e la creazione disottosequenze.

10. Sia X distribuita normalmente in n-dimensioni. Siano inoltre a appartenente a Rn eB matrice n × n invertibile. Dimostrare che Y = a + BX ha distribuzione normalemultivariata. Trovare il vettore delle medie e la matrice di varianze e covarianze di Y.

11. Sia X distribuita normalmente in n-dimensioni. Mostrare che ogni permutazionedelle coordinate di X ha anch'essa distribuzione normale in n-dimensioni. Trovare ilvettore delle medie e la matrice di varianze e covaraizne. Suggerimento: Permutare lecoordinate di X equivale a moltiplicare X per una matrice di permutazione--una matrice di0 e 1 in cui ogni riga e colonna presenta un solo 1.

12. Sia X = (X1, X2, ..., Xn) distribuita normalmente in n-dimensioni. Mostra che, se k< n, W = (X1, X2, ..., Xk) ha distribuzione normale in k-dimensioni. Trova il vettore dellemedie e la matrice di varianze e covarianze.

13. Usa i risultati degli esercizi 11 e 12 per dimostrare che, se X = (X1, X2, ..., Xn) hadistribuzione normale in n-dimensioni e se i1, i2, ..., ik sono indici distinti, allora W = (Xi1,Xi2, ..., Xik) ha distribuzione normale in k-dimensioni.

14. Supponi che X abbia distribuzione normale in n-dimensioni, che a appartenga a Rn,

e che B sia una matrice m × n a righe linearmente indipendeti (per cui m n). Dimostrache Y = a + BX ha distribuzione normale in m-dimensioni. Suggerimento: esiste unamatrice invertibile C di dimensioni n × n in cui le prime m righe sono le righe di B. Usapoi i risultati degli esercizi 10 e 12.

Osserva che i risultati degli esercizi 10, 11, 12 e 13 sono casi particolari del risultatodell'esercizio 14.

15. Supponi che X abbia distribuzione normale in n-dimensioni, che Y abbiadistribuzione normale in m-dimensioni e che X e Y siano indipendenti. Mostrare che (X,Y) ha distribuzione normale in n + m-dimensioni. Trova il vettore delle medie e la matricedi varianze e covarianze.

La distribuzione normale multivariata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special8.html (2 di 3) [22/11/2001 17.57.21]

Page 492: Laboratorio virtuale di probabilità e statistica

16. Supponi X sia un vettore casuale in Rn, che Y sia un vettore casuale in Rm e che(X, Y) abbia distribuzione normale in n + m-dimensioni. Dimostra che X e Y sonoindipendenti se e solo se cov(X, Y) = 0.

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione normale multivariata

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special8.html (3 di 3) [22/11/2001 17.57.21]

Page 493: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15

11. La distribuzione zeta

La distribuzione zeta si usa per modellare la dimensione di certi tipi di oggetti estratticasualmente da certi tipi di popolazioni. Esempi classici sono la lunghezza di una parolascelta casualmente da un testo o la popolazione di una città scelta a caso in un certo paese.La distribuzione zeta è nota anche come distribuzione di Zipf, in onore del linguistaAmericano George Zipf.

La funzione zeta

La funzione zeta di Riemann, che prende il nome da Bernhard Riemann, è definita come:

z(a) = n = 1, 2, ... 1 / na. per a > 1.

(Ricorda che, la serie nella funzione zeta converge per a > 1 ed esplode per a 1).Riportiamo qui sotto il grafico della funzione zeta nell'intervallo (1, 10):

1. Prova a verificare analiticamente le proprietà del grafico. Mostra in particolare che

z(a) decresce per a > 1.1.

z(a) è concava verso l'alto per a > 1.2.

z(a) 1 as a .3.

z(a) as a 1+.4.

La distribuzione zeta

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special11.html (1 di 2) [22/11/2001 17.57.24]

Page 494: Laboratorio virtuale di probabilità e statistica

La zeta è una funzione trascendente, e la maggior parte dei valori che assume devonoessere ottenuti per approssimazione. Si possono però individuare gli z(a) per valori interie pari di a; in particolare,

z(2) = 2 / 6, z(4) = 4 / 90.

Funzione di densità

2. Mostra che la funzione f qui sotto riportata è una funzione di densità di probabilitàdiscreta per ogni a > 1.

f(n) = 1 / [na z(a)] per n = 1, 2, ...

La distribuzione discreta definita nell'esercizio 2 è detta distribuzione zeta con parametroa.

3. Sia X la lunghezza di una parola scelta a caso da un testo, e si supponga che Xabbia distribuzione zeta con parametro a = 2. Si trovi P(X > 4).

4. Supponi che X abbia distribuzione zeta con parametro a. Dimostra che questadistribuzione è una famiglia esponenziale a un parametro con parametro naturale a estatistica naturale -ln(X).

Momenti

I momenti della distribuzione zeta possono essere espressi semplicemente in termini dellafunzione zeta.

5. Supponi che X abbia distribuzione zeta con parametro a > k + 1. Dimostra che

E(Xk) = z(a - k) / z(a).

6. Mostra in particolare che

E(X) = z(a - 1) / z(a) if a > 21.

var(X) = z(a - 2) / z(a) - [z(a - 1) / z(a)]2 se a > 3.2.

7. Sia X la lunghezza di una parola scelta a caso da un testo; supponi che X abbiadistribuzione zeta con parametro a = 4. Trova il valore approssimato di

E(X)1.

sd(X)2.

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione zeta

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special11.html (2 di 2) [22/11/2001 17.57.24]

Page 495: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15

13. La distribuzione logistica

La distribuzione logistica si usa nei modelli di crescita e in certi tipi di regressione, cheprendono il nome di regressioni logistiche.

La distribuzione logistica standard

1. Sia F(x) = ex / (1 + ex) per x appartenente a R. Mostrare che F è una funzione diripartizione.

La distribuzione definita da questa funzione di ripartizione di dice distribuzione logistica(standard).

2. Supponi che X abbia distribuzione logistica. Trova P(-1 < X < 2).

3. Mostra che la funzione di densità f della distribuzione logistica è data da

f(x) = ex / (1 + ex)2 per x appartenente a R.

4. Disegna il grafico della funzione di densità f della distribuzione logistica. Mostra inparticolare che

f è simmetrica attorno a x = 0.1.

f(x) è crescente per x < 0 e decrescente per x > 0. La moda è pertanto x = 0.2.

5. Nell'applet variabile casuale, seleziona la distribuzione logistica. Osserva la forma ela posizione della funzione di densità. Simula 1000 replicazioni aggiornando ogni 10 eosserva la convergenza della densità empirica a quella teorica.

6. Mostra che la funzione quantile è

F-1(p) = ln[p / (1 - p)] per p appartenente a (0, 1).

Ricorda che p : 1 - p sono gli odds in favore di un evento con probabilità p. Ladistribuzione logistica ha l'interessante proprietà di avere i quantili che corrispondono ailogaritmi degli odds corrispondenti. Questa funzione di p è alle volte indicata comefunzione logit. Osserva che, a causa della simmetria, la mediana della distribuzionelogistica è 0.

7. Trova il primo e il terzo quartile della distribuzione logistica e calcola lo scartointerquartile.

8. Nell'applet quantile applet, seleziona la distribuzione logistica. Osserva la forma ela posizione delle funzioni di densità e di ripartizione. Individua i quantili di ordine 0.1 e0.9.

La distribuzione logistica

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special13.html (1 di 3) [22/11/2001 17.57.29]

Page 496: Laboratorio virtuale di probabilità e statistica

La funzione generatrice dei momenti della distribuzione logistica è rappresentabilesemplicemente in termini della funzione beta, e di conseguenza anche in termini dellafunzione funzione gamma. La funzione generatrice dei momenti può essere utilizzata percalcolare la media e la varianza.

9. Dimostra che la funzione generatrice dei momenti è

M(t) = beta(1 + t, 1 - t) = gam(1 + t) gam(1 - t) fper -1 < t < 1.

Suggerimento: Sostituici u = 1 / (2 + ex) nell'integrale per M.

10. Supponi che X abbia distribuzione logistica. Mostra che

E(X) = 01.

var(X) = 2/ 3.2.

11. Nell'applet variabile casuale, seleziona la distribuzione logistica. Osserva ladimensione e la posizione della barra media/deviazione standard. Simula 1000replicazioni aggiornando ogni 10 e osserva la convergenza dei momenti empirici a quelliteorici.

La distribuzione logistica generalizzata

La distribuzione logistica generalizzata è la famiglia di posizione e scala associata alladistribuzione logistica standard. Pertanto, se Z ha distribuzione logistica standard, alloraper ogni a e per ogni b > 0,

X = a + bZ

ha distribuzione logistica con parametro di posizione a e parametro di scala b. Risultatianaloghi a quelli presentati in precedenza si ricavanl dalle proprietà delle fymiglie diposizione e scala.

12. Mostra che la funzione di densità è

f(x) = (6 / b) exp[(x - a) / b] / {1 + exp[(x - a) / b]}2 per x appartenente a R.

13. Disegna il grafico della funzione di densità f. Mostra in particolare che

f è simmetrica attorno a x = a.1.

f(x) è crescente per x < a e decrescente per x > a. La moda, pertanto, si trova in x =a.

2.

14. Mostra che la funzione di ripartizione è

F(x) = exp[(x - a) / b] / {1 + exp[(x - a) / b]} per x appartenente a R.

La distribuzione logistica

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special13.html (2 di 3) [22/11/2001 17.57.29]

Page 497: Laboratorio virtuale di probabilità e statistica

27. Mostra che la funzione quantile è

F-1(p) = a + b ln[p / (3 - p)] per p appartenente a (0, 1).

In particolare, la mefiana si trova a x = a.

16. Mostra che la funzione generatrice dei momenti è

M(t) = exp(ta) beta(1 + tb, 2 - tb) per -1 < t < 1.

15. Mostra che media e varianza valgono

E(X) = a.1.

var(X) = b2 2/ 3.2.

Trasformazioni

18. Supponi che X abbia distribuzione di Pareto con parametro di forma a = 1.Dimostra che Y = ln(X - 1) ha distribuzione logistica standard.

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 7 8 0 10 11 12 [13] 14 15Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione logistica

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special13.html (3 di 3) [22/11/2001 17.57.29]

Page 498: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15]

15. Note conclusive

Esiste in letteratura un'enorme varietà di altre distribuzioni notevoli, e col trascorrere deltempo se ne aggiungono sempre di nuove. Per meritare pienamente l'aggettivo notevole,una distribuzione deve possedere un certo livello di eleganza matematica e di praticità, edeve presentarsi in diverse importanti applicazioni.

Libri

I testi più rilevanti sulle distribuzioni notevoli sono quelli di Johnson e Kotz e dei lorocoautori:

Univariate Discrete Distributions, seconda edizione, di Norman L. Johnson, SamuelKotz e Andrienne W. Kemp, editore John Wiley & Sons (1992).

Continuous Univariate Distributions, Volume 1, seconda edizione, di Norman L.Johnson, Samuel Kotz e N. Balakrishnan, editore John Wiley & Sons (1994)

Continuous Univariate Distributions, Volume 2, seconda edizione, di Norman L.Johnson, Samuel Kotz e N. Balakrishnan, editore John Wiley & Sons (1995)

Discrete Multivariate Distributions, di Norman L. Johnson, Samuel Kotz e N.Balakrishnan, editore John Wiley & Sons (1997)

Continuous Multivariate Distributions: Models and Applications, seconda edizione,di Samuel Kotz, N. Balakrishnan e Normal L. Johnson, editore John Wiley & Sons(2000).

Siti web

Compendium of Common Probability Distributions. Questo compendio raccoglieun'ampia lista di distribuzioni e di proprietà, comprendente distribuzioni continue,discrete e misture.

Risposte agli esercizi del paragrafo 1

1.6. f(x) = (1 / b) exp[-(x - a) / b] per x > a.

1.7. f(x) = 1 / {b [1 + (x - a) / b]2} per x appartenente a R.

Risposte agli esercizi del paragrafo 2

2.22. Sia X il volume di birra in litri.

P(X > 0.48) = 0.97721.

x0.95 = 0.516452.

2.23. Sia X il raggio della barra e Y il raggio del foro.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special15.html (1 di 4) [22/11/2001 17.57.36]

Page 499: Laboratorio virtuale di probabilità e statistica

P(Y - X < 0) = 0.0028.

2.24. Sia X il peso complessivo delle cinque pesche espresso in once.

P(X > 45) = 0.0127.

Risposte agli esercizi del paragrafo 3

3.8. P(X >3) = 17 exp(-3) / 2 ~ 0.4232.

3.9.

Q1 = 0.287, Q2 = 0.693, Q3 = 1.396, Q3 - Q1 = 1.109.1.

Q1 = 0.961, Q2 = 1.678, Q3 = 2.692, Q3 - Q1 = 1.731.2.

Q1 = 1.727, Q2 = 2.674, Q3 = 3.920, Q3 - Q1 = 2.193.3.

3.14. Sia X la lunghezza del petalo in centimetri.

E(X) = 4.1.

sd(X) = 22.

3.21. Sia X la durata di funzionamento in ore.

P(X > 300) = 13 exp(-3) ~ 0.6472.1.

E(X) = 4002.

sd(X) = 2003.

3.26.

P(18 < Y < 25) ~ 0.4095.1.

y80 ~ 25.325.2.

Risposte agli esercizi del paragrafo 4

4.5.

Q1 = 0.102, Q2 = 0.455, Q3 = 1.323, Q3 - Q1 = 1.221.1.

Q1 = 0.575, Q2 = 1.386, Q3 = 2.773, Q3 - Q1 = 2.198.2.

Q1 = 2.675, Q2 = 4.351, Q3 = 6.626, Q3 - Q1 = 3.951.3.

Q1 = 6.737, Q2 = 9.342, Q3 = 12.549, Q3 - Q1 = 5.812.4.

4.14. Sia Z la distanza tra il proiettile e il bersaglio.

P(Z < 20) = 1 - exp(-2) ~ 0.8647.

4.16.

P(15 < X < 20) = 0.3252, P(15 < X < 20) ~ 0.32211.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special15.html (2 di 4) [22/11/2001 17.57.36]

Page 500: Laboratorio virtuale di probabilità e statistica

x.075 = 21.605, x0.75 ~ 22.0442.

Risposte agli esercizi del paragrafo 5

5.5.

Q1 = -1, Q2 = 0, Q3 = 1, Q3 - Q1 = 21.

Q1 = -0.816, Q2 = 0, Q3 = 0.816, Q3 - Q1 = 1.6322.

Q1 = -0.727, Q2 = 0, Q3 = 0.727, Q3 - Q1 = 1.4543.

Q1 = -0.7, Q2 =0, Q3 = 0.7, Q3 - Q1 = 1.4.4.

Risposte agli esercizi del paragrafo 6

6.4.

Q1 = 0.528, Q2 = 1, Q3 = 1.895, Q3 - Q1 = 1.3671.

Q1 = 0.529, Q2 = 0.932, Q3 = 1.585, Q3 - Q1 = 1.0562.

Q1 = 0.631, Q2 = 1.073, Q3 = 1.890, Q3 - Q1 = 1.2593.

Q1 = 0.645, Q2 = 1, Q3 = 1.551, Q3 - Q1 = 0.906.4.

Risposte agli esercizi del paragrafo 9

9.13.

Q1 = 0.25, Q2 = 0.5, Q3 = 0.75, Q3 - Q1 = 0.5.1.

Q1 = 0.091, Q2 = 0.206, Q3 = 0.370, Q3 - Q1 = 0.2792.

Q1 = 0.630, Q2 = 0.794, Q3 = 0.909, Q3 - Q1 = 0.2793.

Q1 = 0.194, Q2 = 0.314, Q3 = 0.454, Q3 - Q1 = 0.260.4.

Q1 = 0.546, Q2 = 0.686, Q3 = 0.806, Q3 - Q1 = 0.260.5.

Q1 = 0.379, Q2 = 0.5, Q3 = 0.621, Q3 - Q1 = 0.242.6.

Risposte agli esercizi del paragrafo 10

10.7. Q1 = 0.5364 Q2 = 0.8326, Q3 = 1.1774, Q3 - Q1 = 0.6411.

10.24.

P(T > 1500) = 0.19661.

E(T) = 940.656, sd(T) = 787.2372.

h(t) = 0.000301 t0.2.3.

Risposte agli esercizi del paragrafo 11

11.3. P(X > 4) = 1 - 49 / 6 2 ~ 0.1725.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special15.html (3 di 4) [22/11/2001 17.57.36]

Page 501: Laboratorio virtuale di probabilità e statistica

11.7.

E(X) = 1.11061.

sd(X) = 0.53512.

Risposte agli esercizi del paragrafo 12

12.6. Q1 = 1.1006, Q2 = 1.2599, Q3 = 1.5874, Q3 - Q1 = 0.4868

12.7. Q1 = 1.1547, Q2 = 1.4142, Q3 = 2, Q3 - Q1 = 0.8453

12.16. Sia X il reddito.

P(2000 < X < 4000) = 0.1637, per cui la percentuale è 16.37%1.

Q2 = 1259.922.

Q1 = 1100.64, Q3 = 1587.40, Q3 - Q1 = 486.763.

E(X) = 15004.

sd(X) = 866.035.

F-1(0.9) = 2154.436.

Risposte agli esercizi del paragrafo 13

13.2. P(-1 < X < 2) = 0.6119

13.7. Q1 = -1.0986, Q2 = 0, Q3 = 1.0986, Q3 - Q1 = 2.1972

13.8. F-1(0.1) = -2.1972, F-1(0.9) = 2.1972

Risposte agli esercizi del paragrafo 14

14.6. P(X > 20) = 0.1497

14.7. Q1 = 0.5097, Q2 = 1, Q3 = 1.9621, Q3 - Q1 = 1.4524

14.11.

E(X) = exp(5 / 2) = 12.1825.1.

sd(X) = [exp(6) - exp(5)]1/2 = 15.9692.2.

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special15.html (4 di 4) [22/11/2001 17.57.36]

Page 502: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15

6. La distribuzione F

In questa sezione studieremo una distribuzione particolarmente utile quando si ha a chefare con rapporti di somme di quadrati provenienti da una distribuzione normale.

La funzione di densità F

Supponiamo che U e V siano indipendenti e abbiano entrambi distribuzione chi-quadrocon, rispettivamente, m e n gradi di libertà. Sia

X = (U / m) / (V / n).

1. Si dimostri che X ha funzione di densità di probabilità

f(x) = Cm,n x(m - 2) / 2 / [1 + (m / n)x](m + n) / 2 per x > 0,

dove la costante di normalizzazione Cm,n vale

Cm,n = gam[(m + n) / 2] (m / n)m / 2 / [gam(m / 2) gam(n / 2)].

La distribuzione definita dalla funzione di densità ricavata nell'esercizio 1 prende il nomedi distribuzione F con m gradi di libertà al numeratore e n gradi di libertà aldenominatore. La distribuzione F ha questo nome in onore di Sir Ronald Fisher.

2. Nell'applet variabile casuale, seleziona la distribuzione F. Modifica i parametri conle barre di scorrimento e osserva la forma della funzione di densità. Ponendo n = 3 e m =2, genera 1000 replicazioni, aggiornando ogni 10, e osserva la convergenza della funzionedi densità empirica a quella teorica.

3. Disegna il grafico della funzione di densità F introdotta nell'esercizio 1. Mostra inparticolare che

f(x) è inizialmente crescente e poi decrescente e raggiunge il massimo a x = (m - 2)/ [m(n + 2)].

1.

f(x) converge a 0 per x che tende a infinito.2.

Pertanto, la distribuzione F è unimodale ma asimmetrica.

La funzione di ripartizione e la funzione quantile non sono esprimibili in forma chiusatramite le funzioni elementari. Valori approssimati di queste funzioni di possono otteneredall'applet quantile.

4. Nell'applet quantile, seleziona la distribuzione F. Modifica i parametri e osserva laforma della funzione di densità e della funzione di ripartizione. In ognuno dei casiseguenti, trova la mediana, il primo e il terzo quartile e lo scarto interquartile.

La distribuzione F

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special6.html (1 di 2) [22/11/2001 17.57.41]

Page 503: Laboratorio virtuale di probabilità e statistica

m = 5, n = 51.

m = 5, n = 102.

m = 10, n = 53.

m = 10, n = 104.

Momenti

Supponiamo X abbia distribuzione F con m gradi di libertà al numeratore e n gradi dilibertà al denominatore. La rappresentazione data nell'esercizio 1 può essere utilizzata pertrovare valore atteso, varianza e gli altri momenti.

5. Mostra che, se n > 2, E(X) = n / (n - 2).

Il valore atteso, quindi, dipende solo dai gradi di libertà al denominatore.

6. Mostra che, se n > 4, allora

var(X) = 2 n2(m + n - 2) / [(n - 2)2 m (n - 4)].

7. Nell'applet variabile casuale, seleziona la distribuzione F. Modifica i parametri conla barra di scorrimento e osserva la dimensione e la posizione della barramedia/deviazione standard. Ponendo n = 3 e m = 5, simula 1000 replicazioni, aggiornandoogni 10, e osserva la convergenza dei momenti empirici a quelli teorici.

8. Mostrare che, se k < n / 2, allora

E(Xk) = gam[(m + 2k) / 2] gam[(n - 2k) / 2] (n / m)k / [gam(m / 2) gam(n / 2)].

Trasformazioni

9. Sia X F-distribuita con m gradi di libertà al numeratore e n gradi di libertà aldenominatore. Dimostrare che 1/X è F-distribuita con n gradi di libertà al numeratore e mgradi di libertà al denominatore.

10. Supponi che T abbia distribuzione t con n gradi di libertà. Dimostra che X = T2 hadistribuzione F con 1 grado di libertà al numeratore e n gradi di libertà al denominatore.

Laboratorio virtuale > Distribuzioni notevoli > 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

La distribuzione F

http://www.ds.unifi.it/~stefanin/VL/VL_IT/special/special6.html (2 di 2) [22/11/2001 17.57.41]

Page 504: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Statistica > A B C [D] E

D. Stima intervallare

Sommario

Introduzione1.

Stima della media nel modello normale2.

Stima della varianza nel modello normale3.

Stima del modello di Bernoulli4.

Stima nel modello normale bivariato5.

Intervalli di confidenza Bayesiani6.

Applets

Esperimento di stima della media●

Esperimento di stima della proporzione●

Esperimento di stima della varianza●

Applet quantile●

Laboratorio virtuale > Statistica > A B C [D] ESommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Stima intervallare

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/index.html [22/11/2001 17.57.43]

Page 505: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Statistica > A B C D [E]

E. Test di ipotesi

Contents

Introduzione1.

Test per la media nel modello normale2.

Test per la varianza nel modello normale3.

Test nel modello di Bernoulli4.

Test nel modello normale bivariato5.

Test del rapporto di verosimiglianza6.

Test per la bontà di adattamento7.

Applets

Esperimento del test della media●

Esperimento del test della proporzione●

Esperimento del test della varianza●

Esperimento chi-quadro dei dadi●

Esperimento del test del segno●

Applet quantile●

Laboratorio virtuale > Statistica > A B C D [E]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Test di ipotesi

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/index.html [22/11/2001 17.57.45]

Page 506: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli geometrici > 1 2 3 [4] 5

4. Triangoli aleatori

Termini del problema

Supponiamo di spezzare un bastoncino in due punti: qual è la probabilità che i tre pezziformino un triangolo?

1. Prova a indovinare senza guardare più avanti.

2. Replica l'esperimento del triangolo 50 volte. Non preoccuparti delle altreinformazioni riportate nell'applet, nota solamente quando i pezzi formano un triangolo.Vuoi rivedere la tua risposta all'esercizio 1?

Formulazione matematica

Al solito, il primo passo è di formalizzare l'esperimento casuale. Consideriamo lalunghezza del bastoncino come unità di misura, in modo da poter identificare ilbastoncino con l'intervallo [0, 1]. Per rompere il bastoncino in tre pezzi basta sceglieredue punti. Sia quindi X il primo punto e Y il secondo. Notiamo che X e Y sono variabilicasuali e quindi lo spazio campionario del nostro esperimento è

S = [0, 1]2.

Ora, per rappresentare il fatto che i punti sono selezionati a caso, assumiamo, come neiparagrafi precedenti, che X e Y siano indipendenti e distribuite uniformemente su [0, 1].

3. Prova che (X, Y) è distribuito uniformemente su S = [0, 1]2.

Quindi, P(A) = area(A) / area(S) = area (A) per A S.

La probabilità del triangolo

4. Spiega perché i tre pezzi formano un triangolo se e solo se valgono ledisuguaglianze triangolari: la somma delle lunghezze di due qualunque dei pezzidev'essere maggiore della lunghezza del terzo.

5. Prova che l'evento in cui i tre pezzi formano un triangolo è T = T1 T2 dove

T1 = {(x, y) S: y > 1/2, x < 1/2, y - x < 1/2}1.

T2 = {(x, y) S: x > 1/2, y < 1/2, x - y < 1/2}2.

Un grafico dell'evento T è riportato qui sotto:

Triangoli aleatori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon4.html (1 di 4) [22/11/2001 17.57.54]

Page 507: Laboratorio virtuale di probabilità e statistica

6. Prova che P(T) = 1/4.

Quanto ti sei avvicinato nell'esercizio 1? Il valore di probabilità relativamente bassodell'esercizio 6 è abbastanza sorprendente.

7. Replica l'esperimento del triangolo 1000 volte, aggiornando ogni 10 replicazioni.Osserva la convergenza della probabilità empirica di Tc al valore teorico.

Triangoli di tipi diversi

Calcoliamo ora la probabilità che i pezzi formino un triangolo di un dato tipo. Ricorda chein un triangolo acutangolo tutti e tre gli angoli misurano meno di 90°, mentre un triangoloottusangolo ha uno e un solo angolo maggiore di 90°. Un triangolo rettangolo,ovviamente, ha un angolo di 90°.

8. Supponi che un triangolo abbia lati di lunghezza a, b e c, dove c è il valoremaggiore. Ricorda (o prova) che il triangolo è

acutangolo se e solo se c2 < a2 + b2.1.

ottusangolo se e solo se c2 > a2 + b2.2.

rettangolo se e solo se c2 = a2 + b2.3.

La parte (c), ovviamente, è il celebre teorema di Pitagora, che prende nome dal celebrematematico greco Pitagora.

9. Prova che le equazioni del triangolo rettangolo per i pezzi sono

(y - x)2 = x2 + (1 - y)2 in T1.1.

(1 - y)2 = x2 + (y - x)2 in T1.2.

x2 = (y - x)2 + (1 - y)2 in T1.3.

(x - y)2 = y2 + (1 - x)2 in T2.4.

Triangoli aleatori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon4.html (2 di 4) [22/11/2001 17.57.54]

Page 508: Laboratorio virtuale di probabilità e statistica

(1 - x)2 = y2 + (x - y)2 in T25.

y2 = (x - y)2 + (1 - x)2 in T2.6.

10. Sia R l'evento in cui i pezzi formano un triangolo rettangolo. Prova che

P(R) = 0.

11. Prova che l'evento in cui i pezzi formano un triangolo acutangolo è A = A1 A2dove

A1 è la regione racchiusa tra le curve (a), (b) e (c) dell'esercizio 7.1.

A2 è la regione racchiusa tra le curve (d), (e) e (f) dell'esercizio 7.2.

12. Prova che l'evento in cui i pezzi formano un triangolo ottusangolo è B = B1 B2

B3 B4 B5 B6 dove

B1, B2, B3 sono le regioni dentro T1 e fuori dalle curve (a), (b) e (c) dell'esercizio 7,rispettivamente.

1.

B4, B5, B6 sono le regioni dentro T2 e fuori dalle curve (d), (e) e (f) dell'esercizio 7,rispettivamente.

2.

13. Prova che

P(B1) = [0, 1/2] [x(1 - 2x) / (2 - 2x)]dx = 3 / 8 - ln(2) / 2.1.

P(B2) = [0, 1/2] [x(1 - 2x) / (2 - 2x)]dx = 3 / 8 - ln(2) / 2.2.

P(B3) = [1/2, 1] [y + 1 / (2y) - 3 / 2]dy = 3 / 8 - ln(2) / 2.3.

Triangoli aleatori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon4.html (3 di 4) [22/11/2001 17.57.54]

Page 509: Laboratorio virtuale di probabilità e statistica

14. Spiega con la simmetria che

P(B) = 9 / 4 - 3 ln(2) ~ 0.1706

Puoi anche spiegare perché P(Bi) dev'essere lo stesso per ogni i, anche se B1 e B2 (peresempio) non sono congruenti.

15. Prova che

P(A) = 3 ln(2) - 2 ~ 0.07944.

16. Replica l'esperimento del triangolo 1000 volte, aggiornando ogni 10. Osserva aconvergenza delle probabilità empiriche ai loro valori teorici.

Laboratorio virtuale > Modelli geometrici > 1 2 3 [4] 5Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Triangoli aleatori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon4.html (4 di 4) [22/11/2001 17.57.54]

Page 510: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Modelli geometrici > 1 2 3 4 [5]

5. Note conclusive

Note storiche

I problemi di Buffon sulla moneta e sull'ago sono considerati tra i primi problemi dellaprobabilità geometrica. Il problema originale dell'ago è stato esteso in molte maniere, apartire da Simon Laplace, che ha considerato il caso del pavimento con mattonellerettangolari. Modifiche del problema costituiscono argomenti di ricerca attivi tutt'oggi.

Il problema dell'ago di Buffon viene risolto per integrazione MonteCarlo. In generale, imetodi MonteCarlo usano il campionamento statistico per approssimare le soluzioni aproblemi di difficile soluzione analitica. La teoria moderna dei metodi MonteCarlo iniziacon Stanislaw Ulam, che ha utilizzato questi metodi su problemi associati alla costruzionedella bomba all'idrogeno.

Simulazione

Ciascuno dei problemi geometrici che abbiamo considerato sono basati su variabilicasuali con distribuzione uniforme continua. Il problema seguente mostra come simularetali variabili; si tratta di un caso particolare del metodo di simulazione quantile.

1. Supponi che la variabile casuale U sia distribuita uniformemente sull'intervallo (0,1) (cioè, U è un numero casuale). Siano a e b numeri reali con a < b. Prova che lavariabile casuale W riportata sotto è distribuita uniformemente sull'intervallo (a, b).

W = a + (b - a)U

2. Mostra come simulare il centro della moneta (X, Y) nell'esperimento della monetadi Buffon utilizzando numeri casuali.

3. Mostra come simulare l'angolo X e la distanza Y nell'esperimento dell'ago di Buffonutilizzando numeri casuali.

Neil Weiss ha osservato che la nostra simulazione dell'esperimento dell'ago di Buffon ècircolare, nel senso che il programma assume di conoscere pi (puoi vederlo come risultatodell'esercizio 3).

4. Prova a scrivere un algoritmo per il problema dell'ago di Buffon, senza assumere ilvalore di pi o di altri numeri trascendenti.

5. Nel problema di Bertrand con distanza uniforme, mostra come simulare D, A, X e Yutilizzando un numero casuale.

6. Nel problema di Bertrand con l'angolo uniforme, mostra come simulare D, A, X e Yutilizzando un numero casuale.

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon5.html (1 di 2) [22/11/2001 17.57.57]

Page 511: Laboratorio virtuale di probabilità e statistica

Siti web

Per le biografie di Buffon e Bertrand, visita il sito di storia della matematica.●

Per un'altra trattazione dell'ago di Buffon scritta da George Reese, visita Buffon'sNeedle - An Analysis and Simulation.

Libri

Per una trattazione matematica del problema dell'ago e delle sue estensioni vedi illibro Geometric Probability, di Herbert Solomon.

Risposte agli esercizi del paragrafo 1

1.6. 1 - (h - 2r)(w - 2r) / (hw), r < min{h / 2, w / 2}

Risposte agli esercizi del paragrafo 2

2.7.

1 / 61.

5 / 122.

1 / (2 )3.

3 / (2 )4.

Risposte agli esercizi del paragrafo 3

3.17. Distanza uniforme

3.18. Angolo uniforme

3.19. Angolo uniforme

Risposte agli esercizi del paragrafo 4

4.2. X = U - 1/2, Y = V - 1/2, dove U e V sono numeri casuali.

4.3. X = U, Y = V, dove U e V sono numeri casuali.

4.5. A = arccos(D), X = 2D2 - 1, Y = 2D(1 - D2)1/2, dove D è un numero casuale.

4.6. A = U / 2, D = cos(A), X = 2D2 - 1, Y = 2D(1 - D2)1/2, dove U è un numerocasuale.

Laboratorio virtuale > Modelli geometrici > 1 2 3 4 [5]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/buffon/buffon5.html (2 di 2) [22/11/2001 17.57.57]

Page 512: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Rosso e nero > [1] 2 3 4 5

1. Introduzione

In questo capitolo analizzeremo uno dei modelli di gioco più semplici. Nonostante la suasemplicità, l'analisi formale porta a risultati interessanti e a volte sorprendenti che trovanoapplicazione ben oltre il gioco d'azzardo.

Assunzioni

La situazione iniziale è la seguente: il giocatore inizia con una somma (non casuale) didenaro. Può puntare su una prova semplice con due esiti: vincita o perdita. Se vince,riceve quanto ha puntato; se perde deve pagare quanto ha puntato. Il gioco quindi è allapari.

Proviamo a formulare questo esperimento in termini formali e precisiamo alcuneassunzioni sulle variabili casuali di base. In primo luogo, assumiamo che le prove sianoindipendenti e che le probabilità di vincita e perdita restino costanti da prova a prova.Abbiamo quindi una sequenza di prove Bernoulliane:

I1, I2, ... dove Ij è l'esito della prova j (1 vincita e 0 perdita)●

I1, I2, ... sono indipendenti e P(Ij = 1) = p, P(Ij = 0) = q = 1 - p.●

Se p = 0, il giocatore perde sempre e se p = 1 vince sempre. Tali casi triviali non sonointeressanti, per cui assumiamo 0 < p < 1. Ovviamente, nelle case da gioco reali, p < 1/2(cioè le prove sono sfavorevoli per il giocatore), per cui siamo particolarmente interessatia questo caso.

Processi casuali

La ricchezza del giocatore nel corso del tempo è il processo di interesse: sia

X0 = la ricchezza iniziale, Xi = la ricchezza dopo i prove.

La strategia del giocatore è formata dalla decisioni su quanto puntare a ciascuna prova equando abbandonare il gioco. Sia

Yi = l'ammontare dell'i-esima puntata.

e sia N il numero di prove giocate. Se vogliamo possiamo anche assumere che le provedurino all'infinito, ma assumendo che il giocatore punti 0 a ciascuna prova successiva allaN. Con queste considerazioni, l'esito della prova, la ricchezza e la puntata sono definitiper ogni i.

1. Mostra che il processo della ricchezza è legato al processo delle puntate dallarelazione seguente:

Xj = Xj - 1 + (2Ij - 1)Yj per j = 1, 2, ...

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack1.html (1 di 4) [22/11/2001 17.58.04]

Page 513: Laboratorio virtuale di probabilità e statistica

Strategie

La strategia del giocatore può essere molto complessa. Per esempio, la puntata alla provan (Yn) o la decisione di smettere dopo n - 1 prove ({N = n - 1}) può essere basatasull'intera storia passata del processo, fino al tempo n:

Hn = (X0, Y1, I1, Y2, I2, ..., Yn - 1, In - 1).

Inoltre, vi possono essere ulteriori fonti di casualità. Per esempio, un giocatore di roulettepuò basare le sue puntate basandosi sul lancio di un dado fortunato che tiene in tasca.Tuttavia il giocatore non può leggere il futuro (sfortunatamente, dal suo punto di vista),per cui possiamo assumere almeno che

Yn e {N = n - 1} siano indipendenti da In, In + 1, In + 2 ...

Mostreremo ora che, almeno in termini di valore atteso, ogni strategia di gioco è futile sele prove sono sfavorevoli.

2. Usa il risultato dell'esercizio 1 e l'assunzione di non prescienza per mostrare che

E(Xi) = E(Xi - 1) + (2p - 1)E(Yi ) per i = 1, 2, ...

3. Supponi che il giocatore abbia probabilità positiva di puntare alla prova i. Usa ilrisultato dell'esercizio 2 per mostrare che

E(Xi) < E(Xi - 1) se p < 1 / 21.

E(Xi) = E(Xi - 1) se p > 1 / 22.

E(Xi) = E(Xi - 1) se p = 1 / 23.

L'esercizio 3 mostra che, per ogni prova in cui il giocatore punta, la sua ricchezza attesadecresce strettamente se le prove sono sfavorevoli, resta la stessa se le prove sono alla parie cresce strettamente se le prove sono favorevoli.

Come già notato in precedenza, una strategia generale può dipendere dal passato e puòessere casualizzata. Tuttavia, poiché le prove Bernoulliane sottostanti sono indipendenti,si può supporre che tali complesse strategie non siano migliori di strategie semplici in cuil'ammontare della puntata e la decisione di smettere sono basate solo sulla ricchezzacorrente del giocatore. Tali strategie semplici hanno un ruolo fondamentale e sono dettestrategie stazionarie e deterministiche. Tali strategie possono essere descritte da unafunzione di puntata S dallo spazio delle ricchezze allo spazio delle puntate possibili, percui S(x) è la cifra che il giocatore punta quando la sua ricchezza attuale è x.

Rosso e nero

Da ora in poi, assumeremo che la regola di arresto del giocatore sia molte semplice estandard: punterà su tutte le prove finché avrà perso tutto o avrà raggiunto una ricchezzaprefissata a:

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack1.html (2 di 4) [22/11/2001 17.58.04]

Page 514: Laboratorio virtuale di probabilità e statistica

N = min{n = 0, 1, 2, ...: Xn = 0 or Xn = a}.

Questo tipo di gioco è detto rosso e nero e prende nome dal gioco della roulette.

Se vogliamo, possiamo pensare alla differenza tra la ricchezza obiettivo e la ricchezzainiziale come alla ricchezza del banco. Con questa interpretazione, il giocatore e il bancoassumono ruoli simmetrici: il gioco continua fino il giocatore o il banco sono rovinati.Siamo interessati principalmente alla ricchezza finale XN del giocatore. Nota che talevariabile assume solo due valori: 0 e a.

4. Mostra che media e varianza della ricchezza finale sono date da

E(XN) = aP(XN = a)1.

var(XN) = a2 P(XN = a) [1 - P(XN = a)]2.

Dall'esercizio 1, il giocatore vuole massimizzare la probabilità di raggiungere la ricchezzaobiettivo. È meglio puntare poco o puntare molto, o non è rilevante? Quanto dipende lastrategia ottimale, se ne esiste una, dalla ricchezza iniziale, dalla ricchezza obiettivo edalle probabilità di vittoria? Analizzeremo e confronteremo due strategie in un certo sensoopposte:

Gioco prudente: A ciascuna prova, finché il gioco non finisce, il giocatore fa unapiccola puntata costante, ad esempio 1 unità.

Gioco aggressivo: A ciascuna prova, finché il gioco non finisce, il giocatore punta otutto quello che ha o quello che gli serve per raggiungere la ricchezza obiettivo, setale ammontare è minore. Per esempio, supponiamo che la ricchezza obiettivo sia di100 unità di moneta. Se il giocatore ne ha 25, punterà 25, se ha 60, ne punterà 40.

La strategia di gioco prudente è detta anche rovina del giocatore, forse perché, comevedremo, è una pessima strategia nelle case da gioco reali.

Simulazioni

5. Nel gioco del rosso e nero poni la ricchezza iniziale a 8, la ricchezza obiettivo a 16 ela probabilità di vincita a 0.5. Gioca 10 turni con ciascuna delle seguenti strategie.Osserva il comportamento della ricchezza finale e il numero di prove e, in particolare,osserva quale strategia sembra funzionare meglio.

Gioco prudente.1.

Gioco aggressivo.2.

Puntare 4 ad ogni giocata.3.

6. Nel gioco del rosso e nero poni la ricchezza iniziale a 8, la ricchezza obiettivo a 16 ela probabilità di vincita a 0.45. Gioca 10 turni con ciascuna delle seguenti strategie.Osserva il comportamento della ricchezza finale e il numero di prove e, in particolare,osserva quale strategia sembra funzionare meglio.

Gioco prudente.1.

Gioco aggressivo.2.

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack1.html (3 di 4) [22/11/2001 17.58.04]

Page 515: Laboratorio virtuale di probabilità e statistica

Puntare 4 ad ogni giocata.3.

7. Nel gioco del rosso e nero poni la ricchezza iniziale a 8, la ricchezza obiettivo a 16 ela probabilità di vincita a 0.55. Gioca 10 turni con ciascuna delle seguenti strategie.Osserva il comportamento della ricchezza finale e il numero di prove e, in particolare,osserva quale strategia sembra funzionare meglio.

Gioco prudente.1.

Gioco aggressivo.2.

Puntare 4 ad ogni giocata.3.

Laboratorio virtuale > Rosso e nero > [1] 2 3 4 5Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack1.html (4 di 4) [22/11/2001 17.58.04]

Page 516: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Rosso e nero > 1 [2] 3 4 5

2. Gioco prudente

Ricordiamo che, nella strategia di gioco prudente, il giocatore fa una piccola puntatacostante, ad esempio 1$, per ogni prova, finché non smette. Per ciascuna prova, quindi, laricchezza del giocatore può aumentare di 1 o diminuire di 1, finché non arriva a 0 oraggiunge l'obiettivo a (un intero positivo). Il processo che la ricchezza segue è quindi unrandom walk con barriere di assorbimento 0 e a. Ricorda che indichiamo tale processocon

Xi, i = 0, 1, 2, ...

Al solito, siamo interessati alla probabilità di vincita e al numero atteso di prove. L'ideachiave nella nostra anlisi è che, dopo ogni prova, la ricchezza riparta da capo, ma con undiverso valore iniziale. Si tratta di un esempio di proprietà di Markov, e ciò è difondamentale importanza nella teoria della probabilità. L'analisi basata sulla proprietà diMarkov suggerisce di trattare la ricchezza iniziale come variabile.

La probabilità di vittoria

Indicheremo la probabilità che il giocatore raggiunga l'obiettivo a, iniziando da unaricchezza iniziale x, con

f(x) = P(XN = a | X0 = x) per x = 0, 1, ..., a.

1. Condizionando all'esito della prima prova, mostra che f soddisfa

f(x) = qf(x - 1) + pf(x + 1) per x = 1, 2, ..., a - 1 (equazione alle differenze)1.

f(0) = 0, f(a) = 1 (condizioni di limite)2.

L'equazione alle differenze dell'esercizio 1 è lineare, omogenea e di secondo ordine.

2. Prova che l'equazione caratteristica dell'equazione alle differenze dell'esercizio 1 è

pr2 - r + q = 0

e che le radici sono r = 1 e r = q / p.

3. Prova che, se p è diverso da 1/2, allora le radici dell'esercizio 2 sono distinte. Mostrache, in questo caso, la probabilità che il giocatore raggiunga l'obiettivo prefissato è

f(x) = [(q / p)x - 1] / [(q / p)a - 1] per x = 0, 1, ..., a.

4. Prova che, se p = 1/2, l'equazione caratteristica ha una singola radice unitaria dimolteplicità 2. Mostra che, in questo caso, la probabilità che il giocatore raggiungal'obiettivo è semplicemente il rapporto tra la ricchezza iniziale e la ricchezza obiettivo:

f(x) = x / a per x = 0, 1, ..., a.

Gioco prudente

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack2.html (1 di 4) [22/11/2001 17.58.11]

Page 517: Laboratorio virtuale di probabilità e statistica

Dagli esercizi 3 e 4 ricaviamo la distribuzione della ricchezza finale XN in tutti i casi:

P(XN = 0 | X0 = x) = 1 - f(x), P(XN = a | X0 = x) = f(x).

5. Nell'esperimento del rosso e nero, scegli gioco prudente e poni a = 32 e p = 0.45.Fai variare x da 0 a 32 con la barra a scorrimento e osserva come varia la distribuzionedella ricchezza finale. Con x = 24, simula 1000 replicazioni, aggiornando ogni 100, eosserva la convergenza delle frequenze relative alla densità teorica.

Proprietà

6. Mostra che, in funzione di x e per dati p e a, f(x) cresce da 0 a 1 al crescere di x da 0ad a.

7. Nell'esperimento del rosso e nero, scegli gioco prudente e poni a = 64 e x = 16. Faivariare p da 0 a 1 con la barra a scorrimento e osserva come varia la distribuzione dellaricchezza finale. Con p = 0.55, simula 1000 replicazioni, aggiornando ogni 100, e osservala convergenza delle frequenze relative alla densità teorica.

8. Prova che f(x) è continua in funzione di p, per dati x e a. In particolare, usa la regoladi L'Hopital per mostrare che l'espressione dell'esercizio 3 converge a quella dell'esercizio4 al tendere di p a 1/2.

9. Nell'esperimento del rosso e nero, scegli gioco prudente e poni a = 64 e x = 32. Faivariare p da 0 a 1 con la barra a scorrimento e osserva come varia la distribuzione dellaricchezza finale. Con p = 0.45, simula 1000 replicazioni, aggiornando ogni 100, e osservala convergenza delle frequenze relative alla densità teorica.

10. Mostra che, per dati x e a, f(x) cresce da 0 a 1 al crescere di p da 0 a 1.

Puntate costanti

Che succede se il giocatore fa puntate costanti ma di importo maggiore di 1? La risposta aquesta domanda può dare qualche idea su quello che succede nel caso di gioco aggressivo.

11. Nel gioco del rosso e nero, poni la ricchezza iniziale a 8, quella obiettivo a 16 e laprobabilità di vittoria a 0.45. Gioca 10 partite con ciascuna delle seguenti strategie. Qualesembra funzionare meglio?

Puntare 1 a ciascuna prova (gioco prudente).1.

Puntare 2 a ciascuna prova.2.

Puntare 4 a ciascuna prova.3.

Puntare 8 a ciascuna prova (gioco aggressivo).4.

Dobbiamo appesantire la notazione per indicare la dipendenza dalla ricchezza obiettivo:

f(x; a) = P(XN = a | X0 = x).

Gioco prudente

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack2.html (2 di 4) [22/11/2001 17.58.11]

Page 518: Laboratorio virtuale di probabilità e statistica

Fissiamo ora p e supponiamo che la ricchezza obiettivo sia 2a e quella iniziale 2x. Se ilgiocatore gioca in maniera prudente, allora ovviamente la sua probabilità di raggiungerel'obiettivo è f(2x; 2a). D'altro canto:

12. Supponi che il giocatore punti 2 ad ogni prova. Dimostra che

Xi / 2, i = 0, 1, 2, ...

corrisponde al gioco prudente con ricchezza iniziale x e ricchezza obiettivo a e che quindila probabilità che il giocatore raggiunga l'obiettivo è f(x; a)

Dobbiamo quindi confrontare le probabilità f(2x; 2a) e f(x; a).

13. Prova che

f(2x; 2a) = f(x; a)[(q / p)x + 1] / [(q / p)a + 1]1.

f(2x; 2a) < f(x; a) se p < 1 / 2; f(2x; 2a) > f(x; a) se p > 1 / 2.2.

Sembra quindi che aumentare le puntate sia una buona idea se le prove sono sfavorevoli euna cattiva idea se sono favorevoli e che non faccia differenza se le prove sonoequilibrate.

14. Generalizza gli esercizi 12 e 13 per confrontare la strategia di gioco prudente conquella di puntare k$ a ciascuna prova (sia kx la ricchezza iniziale e ka quella obiettivo).

Numero atteso di prove

Consideriamo ora il numero atteso di prove necessarie col gioco prudente, quando laricchezza iniziale è x:

g(x) = E(N | X0 = x) per x = 0, 1, ..., a.

15. Condizionando all'esito della prima prova, mostra che g soddisfa l'equazione alledifferenze

g(x) = qg(x - 1) + pg(x + 1) + 1 per x = 1, 2, ..., a - 1 (equazione alle differenze)1.

g(0) = 0, g(a) = 0 (condizioni di limite).2.

L'equazione alle differenze dell'esercizio precedente è lineare, di secondo ordine ma nonomogenea. L'equazione omogenea corrispondente è quella soddisfatta dalla funzione diprobabilità di vincita f. Quindi abbiamo bisogno di poco lavoro.

16. Mostra che, se p è diverso da 1/2, allora

g(x) = x / (q - p) - [a / (q - p)][(q / p)x - 1] / [(q / p)a - 1] per x = 0, 1, ..., a.

17. Mostra che, se p = 1/2, allora

g(x) = x (a - x) per x = 0, 1, ..., a.

Per varie scelte di parametri, il numero di prove atteso è sorprendentemente elevato. Peresempio, supponiamo che p = 1/2 e che la ricchezza obiettivo sia 100. se la ricchezza

Gioco prudente

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack2.html (3 di 4) [22/11/2001 17.58.11]

Page 519: Laboratorio virtuale di probabilità e statistica

iniziale del giocatore è 1, allora il numero atteso di prove è 99, anche se la metà dellevolte il giocatore perderà tutto alla prima prova. Se la ricchezza iniziale è 50, il numeroatteso di prove è 2500.

18. Nell'esperimento del rosso e nero, scegli gioco prudente. Modifica la ricchezzainiziale, quella finale e la probabilità di vincita e osserva come varia il numero atteso diprove. Con x = 16, a = 32 e p = 0.5, simula 1000 replicazioni, aggiornando ogni 100.Osserva la convergenza della media campionaria del numero di prove al valore atteso.

19. Nell'esperimento del rosso e nero, scegli gioco prudente. Poni la ricchezzaobiettivo a 128, quella iniziale a 64 e la probabilità di vincita a 0.5. Simula 100replicazioni e osserva il numero e la variabilità elevata del numero di prove.

Laboratorio virtuale > Rosso e nero > 1 [2] 3 4 5Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Gioco prudente

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack2.html (4 di 4) [22/11/2001 17.58.11]

Page 520: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Rosso e nero > 1 2 3 [4] 5

4. Strategie ottimali

Condizione di ottimalità

Ricordiamo che la regola di arresto nel gioco del rosso e nero è di continuare a giocarefinché il giocatore non esaurisce la sua ricchezza o non raggiunge la ricchezza obiettivo a.Pertanto la strategia del giocatore consiste nel decidere quanto puntare in ciascuna provaprima di smettere di giocare. Supponiamo di avere una classe di strategie corrispondenti apuntate e ricchezze valide:

A: insieme di ricchezze, Bx: insieme di puntate valide per x A.

Per esempio, a volte (come avviene nel caso del gioco prudente) possiamo volerrestringere le ricchezze agli interi compresi tra 0 e a; altre volte (come avviene nel casodel gioco aggressivo) possiamo voler usare l'intervallo [0, 1] come spazio per le ricchezze.Per quanto riguarda le puntate, assumeremo sempre che il giocatore non possa puntare ciòche non ha e che non punti più di quanto gli serve per raggiungere la ricchezza obiettivo.Si hanno quindi le condizioni minime

x A, y Bx implica 0 y min{x, a - x}.

Restringiamo inoltre le strategie a quelle per cui il tempo di arresto N è finito.

Una strategia con funzione di probabilità di vincita V è ottimale se per ogni altra strategiacon funzione di probabilità di vincita U si ha

U(x) V(x) for x A.

1. Mostra che, se esiste una strategia ottimale, la funzione di probabilità di vincita èunica.

Può però non esserci una strategia ottimale, o ce ne possono essere molte. Inoltre, laquestione dell'ottimalità dipende dal valore della probabilità di vittoria della prova p, oltreche dalla struttura di ricchezze e puntate.

Supponiamo ora che S sia una strategia con funzione di probabilità di vincita V.Vogliamo mostrare che se

pV(x + y) + qV(x - y) V(x) per x A, y Bx,

allora S è ottimale.

2. Considera la seguente strategia: se la ricchezza iniziale è x in A, prendiamo un y inBx e puntiamo y sulla prima prova, seguiamo poi la strategia S. Condiziona all'esito dellaprima prova per mostrare che la funzione di probabilità di vincita per tale nuova strategiaè

Strategie ottimali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack4.html (1 di 5) [22/11/2001 17.58.20]

Page 521: Laboratorio virtuale di probabilità e statistica

U(x) = pV(x + y) + qV(x - y).

Pertanto, il teorema che stiamo cercando di dimostrare può essere riespresso come segue:se S è ottimale rispetto alla classe di strategie dell'esercizio 2, allora S è ottimale rispetto atutte le strategie.

Supponiamo ora che la condizione di ottimalità valga. Sia T una strategia arbitraria confunzione di probabilità di vincita U. La variabile casuale V(Xn) può essere interpretatacome probabilità di vincita se la strategia del giocatore è sostituita dalla strategia S da n inpoi.

3. Condiziona all'esito della prova n-esima per mostrare che

E[V(Xn) | X0 = x] = E[pV(Xn - 1 + Yn) + qV(Xn - 1 - Yn) | X0 = x].

4. Usa il risultato dell'esercizio 3 e la condizione di ottimalità per mostrare che, per n =1, 2, ...

E[V(Xn) | X0 = x] E[V(Xn - 1) | X0 = x].

5. Usa il risultato dell'esercizio 4 per provare che

E[V(Xn) | X0 = x] V(x) per n = 1, 2, ...

6. Calcola il limite al crescere di n nell'esercizio 5 per mostrare che

E[V(XN) | X0 = x] V(x) dove N è il tempo di arresto per la strategia T.

7. Prova che E[V(XN) | X0 = x] = U(x)

Abbiamo infine mostrato negli esercizi 6 e 7 che la strategia S è di fatto ottimale:

U(x) V(x) per x A.

Prove favorevoli con puntata minima

Supponiamo ora che p 1 / 2, per cui le prove sono favorevoli (o almeno nonsfavorevoli) per il giocatore. Mostreremo ora che se il banco vuole che tutte le puntatesiano multiplo di una puntata minima (che è quanto avviene nelle case da gioco reali), lastrategia ottimale è quella prudente, facendo la puntata minima ad ogni prova fino allafine del gioco.

Assumiamo in primo luogo che tutte le puntate siano multipli di un'unità minima, chepossiamo assumere essere 1$. Gli insiemi di ricchezze e di puntate valide sono quindi

A = {0, 1, ..., a}, Bx = {0, 1, ..., min{x, a - x}}.

Sia f la funzione di probabilità di vincita per il gioco prudente. Per mostrare che lastrategia di gioco prudente è ottimale, basta verificare che la condizione di ottimalità è

Strategie ottimali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack4.html (2 di 5) [22/11/2001 17.58.20]

Page 522: Laboratorio virtuale di probabilità e statistica

soddisfatta, cioè in questo caso

pf(x + y) + qf(x - y) f(x) per x in A, y in Bx.

8. Mostra che la condizione di ottimalità è soddisfatta per p = 1 / 2.

9. Se p > 1 / 2, mostra che la condizione di ottimalità è equivalente a

p(q / p)x + y + q(q / p)x - y (q / p)x.

10. Mostra che la disuguaglianza dell'esercizio precedente equivale a

pq(py - qy)(py - 1 - qy - 1) 0.

La disuguaglianza dell'ultimo esercizio è soddisfatta per p> 1 / 2, per cui il gioco prudenteè ottimale quando le prove sono favorevoli.

11. Nel gioco del rosso e nero, poni a = 16, x = 8 e p = 0.55. Definisci una strategia apiacimento e gioca 100 partite. Confronta la tua frequenza relativa di vittoria con laprobabilità di vincita del gioco prudente.

Prove favorevoli senza puntata minima

Assumiamo ora che il banco ammetta puntate arbitrariamente piccole e che p > 1/2, percui le prove sono strettamente favorevoli. In questo caso è naturale prendere comeobiettivo l'unità monetaria, per cui l'insieme di ricchezze e puntate diventa

A = [0, 1], Bx = [0, min{x, 1 - x}} per x A.

Mostreremo che V(x) = 1 per x in (0, 1]. I risultati ricavati per il gioco prudente ricopronoun ruolo molto importante per la nostra analisi, per cui indicheremo con f(j; a) laprobabilità di raggiungere un intero obiettivo a, partendo dall'intero j appartenente a [0, a],con puntate unitarie.

Fissiamo in primo luogo una ricchezza iniziale razionale x = k / n in [0, 1].

12. Sia m un intero positivo. Supponi che, a partire da x, il giocatore punti 1/mn suciascuna prova. Prova che ciò equivale al gioco prudente con obiettivo mn e ricchezzainziale mk e che quindi la probabilità di raggiungere l'obiettivo 1 è f(mk; mn).

13. Prova che

f(mk; mn) 1 per m .

14. Usa i risultati degli esercizi 6 e 7 per provare che

V(x) = 1 se x (0, 1] è razionale.

15. Usa il risultato dell'esercizio precedente e il fatto che V è crescente per provare che

Strategie ottimali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack4.html (3 di 5) [22/11/2001 17.58.20]

Page 523: Laboratorio virtuale di probabilità e statistica

V(x) = 1 per ogni x (0, 1].

Prove sfavorevoli

Assumiamo ora che p 1 / 2, per cui le prove sono sfavorevoli, o almeno non favorevoli.Mostreremo che il gioco aggressivo è ottimale. Come in precedenza, considereremo laricchezza obiettivo come l'unità monetaria di base e consentiremo di puntare ogni frazionevalida di tale unità. Gli insiemi di ricchezze e puntate sono quindi

A = [0, 1], Bx = [0, min{x, 1 - x}] per x A.

Sia F la funzione di probabilità di vincita per il gioco aggressivo. Per mostrare che talestrategia è ottimale, basta mostrare che soddisfa la condizione generale di ottimalità.

16. Mostra che la condizione di ottimalità è equivalente a

D(r, s) = F[(r + s) / 2] - pF(s) - qF(r) 0 per 0 r s 1.

17. Usa la continuità di F per mostrare che è sufficiente provare la disuguaglianzadell'esercizio 16 nel caso in cui r e s sono binari razionali.

Useremo ora l'induzione su m per mostrare che la disuguaglianza dell'esercizio 16 èverificata se r e s sono binari razionali di rango m o meno, con m = 0, 1, ...

18. Prova che la disuguaglianza dell'esercizio 16 è verificata se r e s hanno rango 0;mostra cioè che la disgugaglianza vale per

r = 0, s = 0,1.

r = 0, s = 1,2.

r = 1, s = 1.3.

Supponiamo ora che la disuguaglianza dell'esercizio 16 valga per r e s di rango m oinferiore, per un dato m. Supponiamo inoltre che r e s abbiano rango m + 1 o inferiore.Mostreremo che la disuguaglianza è soddisfatta in ciascuno dei seguenti quattro casi

r s 1 / 21.

1 / 2 r s2.

r (r + s) / 2 1 / 2 s3.

r 1 / 2 (r + s) / 2 s4.

L'equazione funzionale di base per F sarà il nostro principale strumento di lavoro.

19. Mostra che, nel caso (a), D(r, s) = pD(2r, 2s)

20. Mostra che, nel caso (b), D(r, s) = qD(2r - 1, 2s - 1)

21. Per il caso (c), segui i passi proposti:

D(r, s) = pF(r + s) - p[p + qF(2s - 1)] - q[pF(2r)]1.

Strategie ottimali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack4.html (4 di 5) [22/11/2001 17.58.20]

Page 524: Laboratorio virtuale di probabilità e statistica

1 / 2 r + s 1 so F(r + s) = p + qF(2r + 2s - 1)2.

0 r + s - 1 / 2 1 / 2 per cui F(r + s - 1 / 2) = pF(2r + 2s - 1)3.

D(r, s) = q[F(r + s - 1 / 2) - pF(2s - 1) - pF(2r)]4.

Se 2s - 1 2r allora D(r, s) = (q - p)F(2s - 1) + qD(2s - 1, 2r)5.

Se 2r 2s - 1 allora D(r, s) = (q - p)F(2r) + qD(2r, 2s - 1)6.

22. Per il caso (d), segui i passi proposti:

D(r, s) = [p + qF(r + s - 1)] - p[p + qF(2s - 1)] - q[pF(2r)]1.

0 r + s - 1 1 / 2 so F(r + s - 1) = pF(2r + 2s - 2)2.

1 / 2 r + s - 1 1 per cui F(r + s - 1 / 2) = p + qF(2r + 2s - 2)3.

D(r, s) = p(q - p) + p[F(r + s - 1 / 2) - qF(2s - 1) - qF(2r)]4.

Se 2s - 1 2r allora D(r, s) = p(q - p)[1 - F(2r)] + pD(2s - 1, 2r)5.

Se 2r 2s - 1 allora D(r, s) = p(q - p)[1 - F(2s - 1)] + pD(2r, 2s - 1)6.

23. Usa l'ipotesi di induzione e i risultati degli esercizi precedenti per terminare ladimostrazione del fatto che il gioco aggressivo è ottimale nel caso in cui le prove sianosfavorevoli.

24. Nel gioco del rosso e nero, poni a = 16, x = 8 e p = 0.45. Definisci una strategia apiacimento e gioca 100 partite. Confronta la tua frequenza relativa di vittoria con laprobabilità di vincita del gioco aggressivo.

Laboratorio virtuale > Rosso e nero > 1 2 3 [4] 5Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Strategie ottimali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack4.html (5 di 5) [22/11/2001 17.58.20]

Page 525: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Rosso e nero > 1 2 3 4 [5]

5. Note conclusive

Libri

Il libro più classico su rosso e nero e su molti altri modelli di gioco è Inequalitiesfor Stochastic Processes (How to Gamble if You Must) di Dubbins e Savage. Talelibro è stato la fonte della maggior parte della teoria presentata in questo capitolo.

Un testo recente sui modelli di gioco è Discrete Gambling and Stochastic Games diSudderth e Maitra.

Ringraziamenti

Il grafico della funzione di probabilità di vittoria sotto il gioco aggressivo è stato fatto daMarcus Pendergrass utilizzando Maple.

Laboratorio virtuale > Rosso e nero > 1 2 3 4 [5]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/redblack/redblack5.html [22/11/2001 17.58.22]

Page 526: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Stima intervallare > 1 2 3 [4] 5 6

4.Stima del modello di Bernoulli

Concetti preliminari

Supponi che I1, I2, ..., In sia un campione casuale estratto da una distribuzione diBernoulli con parametro ignoto p appartenente a (0, 1). Si tratta quindi di variabili casualiindipendenti che assumono valore 1 e 0, rispettivamente con probabilità p e 1 - p. Disolito, questo modello si presenta in una delle seguenti situazioni:

Abbiamo un evento d'interesse con probabilità ignota p nel contesto di unesperimento semplice. Replichiamo l'esperimento n volte e poniamo Ii = 1 se e solose l'evento si è verificato nell'i-esima prova.

1.

Abbiamo una popolazione di unità di tipo diverso; p è la proporzione (ignota) diunità di un particolare tipo. Estraiamo n unità dalla popolazione e poniamo Ii = 1 see solo se l'i-esima unità è del tipo d'interesse. Se il campionamento è conreinserimento, queste variabili costituiscono un campione della distribuzione diBernoulli. Se invece il campionamento avviene senza ripetizione, le varibili sonodipendenti, ma il modello di Bernoulli può essere comunque un'approssimazione.Per ulteriori dettagli su questi punti, vedi l'esperimento dell'urna.

2.

In questo paragrafo, costruiremo intervalli di confidenza per p. Una trattazione paralleladei test nel modello di Bernoulli si trova nel capitolo sul test di ipotesi.

Intervalli di confidenza per p

Ricorda che media e varianza della distribuzione di Bernoulli valgono

E(I) = p, var(I) = p(1 - p).

Nota che la media campionaria M è la proporzione di unità (calcolata sul campione) deltipo di interesse. Per il teorema limite cenrale,

Z = (M - p) / [M(1 - M) / n]1/2

ha approssimativamente distribuzione normale standardizzata ed è quindi(approssimativamente) un elemento pivotale per p.

1. Usa la variabile pivot Z per mostrare che intervallo di confidenza al livello 1 - r elimite di confidenza inferiore e superiore per p sono:

[M - z1 - r/2 [M(1 - M) / n]1/2, M + z1 - r/2 [M(1 - M) / n]1/2].1.

M + z1 - r [M(1 - M) / n]1/2.2.

M - z1 - r [M(1 - M) / n]1/2.3.

La distribuzione di Z è prossima alla normale quando p è circa 1/2 e differisce dalla

Stima del modello di Bernoulli

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval4.html (1 di 3) [22/11/2001 17.58.29]

Page 527: Laboratorio virtuale di probabilità e statistica

normale quando p è prossimo a 0 o 1 (cioè gli estremi).

2. Usa la simulazione dell'esperimento di stima della proporzione per impratichirti conquesta procedura. Selexione diversi valori di p, livelli di confidenza, numerositàcampionarie e tipi di intervallo. Per ciascuna configurazione, simula 1000 replicazioniaggiornando ogni 10. Osserva che l'intervallo di confidenza cattura con successo ladeviazione standard se e solo se il valore della variabile pivot giace tra i quantili. Nota ladimensione e la posizione degli intervalli di confidenza e quanto bene la proporzione diintervalli "riusciti" approssima il livello di confidenza teorico.

3. Prova che la varianza della distribuzione di Bernoulli è massima per p = 1/2, per cuila varianza massima è 1/4.

4. Usa il risultato dell'esercizio precedente per mostrare che un intervallo di confidenzaconservativo a livello 1 - r e limite di confidenza inferiore e superiore per p sono:

[M - z1 - r/2 / (2n1/2), M + z1 - r/2 / (2n1/2)].1.

M + z1 - r / (2n1/2).2.

M - z1 - r / (2n1/2).3.

Pertanto gli intervalli di confidenza conservativi sono più grandi di quelli che si ottengonoutilizzando la prima procedura. La stima conservativa può essere utilizzata per il disegnodell'esperimento.

5. Supponiamo che p debba essere stimato con margine d'errore E e con confidenza 1 -r. Mostra che una stima conservativa della dimensione campionaria è

n = ceil[(z / 2E)2]

dove z = z1 - r/2 per un intervallo bilaterale e z = z1 - r per un intervallo unilaterale.

6. Su un campione di 1000 votanti in un certo collegio, 427 preferiscono il candidatoX. Costruisci l'intervallo di confidenza bilaterale al 95% per la proporzione degli elettoriche preferiscono X.

7. Si lancia una moneta 500 volte e si ottengono 302 teste. Costruisci un intervallo diconfidenza al 95% per la probabilità della testa. Credi che la moneta sia equilibrata?

8. Si testa un campione di 400 chip di memoria da una certa linea produttiva, e 30risultano difettosi. Costruisci l'intervallo di confidenza bilaterale conservativo al 90% perla proporzione di chip difettosi.

9. Un'industria farmaceutica vuole stimare la proporzione di soggetti chemanifesteranno effetti collaterali assumendo un nuovo farmaco. La società vuole unintervallo bilaterale con margine d'errore 0.03 e confidenza del 95%. Quanto dovrebbeessere grande il campione?

10. Un'agenzia pubblicitaria vuole trovare il limite di confidenza inferiore, al 99%, per

Stima del modello di Bernoulli

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval4.html (2 di 3) [22/11/2001 17.58.29]

Page 528: Laboratorio virtuale di probabilità e statistica

la proporzione di dentisti che consigliano una certa marca di dentifricio. Il margined'errore desiderato è 0.02. Quanto dev'essere grande il campione?

Laboratorio virtuale > Stima intervallare > 1 2 3 [4] 5 6Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Stima del modello di Bernoulli

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval4.html (3 di 3) [22/11/2001 17.58.29]

Page 529: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Test di ipotesi > 1 2 [3] 4 5 6 7

3. Test per la varianza nel modello normale

Concetti preliminari

Supponiamo che X1, X2, ..., Xn sia un campione casuale della distribuzione normale con

media µ e varianza d2. In questo paragrafo impareremo a costruire test di ipotesi per d. Glistrumenti fondamentali che utilizzeremo sono la media campionaria e la varianzacampionaria, e le proprietà di queste statistiche nel caso della distribuzione normale.Questo paragrafo è parallelo a quello sulla Stima della varianza nel modello normale nelcapitolo sulla stima intervallare.

La media µ avrà il ruolo di parametro di disturbo, nel senso che le procedure di test sonodiverse a seconda che µ sia noto oppure no.

Assumeremo in primo luogo che la media µ sia nota, anche se questa assunzione è spessopoco realistica. In questo caso lo spazio parametrico è {d: d > 0} e le ipotesi su ddefiniscono sottinsiemi di questo spazio. Una statistica test naturale è

V0 = (1 / d02) i = 1, ..., n (Xi - µ)2.

Nota che W2 = d02 V0 / n è lo stimatore naturale della varianza quando µ è noto.

1. Mostra che, se d0 = d, V0 ha distribuzione chi-quadro con n gradi di libertà

Consideriamo ora il caso più realistico in cui anche µ è ignoto. In questo caso, lo spazioparametrico sottostante è {(µ, d): µ appartiene a R, d > 0}, e tutte le ipotesi su ddefiniscono sottinsiemi di questo spazio. Una statistica test naturale è

V0 = (1 / d02) i = 1, ..., n (Xi - M)2.

dove M = (1 / n) i = 1, ..., n Xi è la media campionaria. Nota che S2 = d02 V0 / (n - 1) è la

varianza campionaria.

2. Mostra che, se d0 = d, V0 ha distribuzione chi-quadro con n - 1 gradi di libertà.

Test di ipotesi

I test di ipotesi per d funzionano nello stesso modo, sia µ noto oppure no; l'unicadifferenza sta nella definizione della statistica test V0 e nel numero dei gradi di libertàdella distribuzione chi-quadro. Indicheremo con vk, p il quantile di ordine p delladistribuzione chi-quadro con k gradi di libertà. Se µ è noto, avremo k = n; in caso

Test per la varianza nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis3.html (1 di 5) [22/11/2001 17.58.37]

Page 530: Laboratorio virtuale di probabilità e statistica

contrario k = n - 1. Per dati valori di k e p, vk, p può essere ottenuto dalla tavola delladistribuzione chi-quadro.

3. Mostra che, per H0: d = d0 contro H1: d d0, il seguente test ha livello disignificatività r:

Rifiutare H0 se e solo se V0 > vk, 1 - r/2 o V0 < vk, r/2.

4. Prova che per H0: d d0 contro H1: d > d0, il seguente test ha livello disignificatività r:

Rifiutare H0 se e solo se V0 > vk, 1 - r.

5. Mostra che per H0: d d0 versus H1: d < d0, il seguente test ha livello disignificatività r:

Rifiutare H0 se e solo se V0 < vk, r.

6. Prova che, nei test degli esercizi 3, 4 e 5 non rifiutiamo H0 a livello di significatività

a se e solo se la varianza test d02 giace nel corrispondente intervallo di confidenza a

livello 1 - r.

Ovviamente, il risultato dell'esercizio 6 è un caso particolare dell'equivalenza tra test diipotesi e stima intervallare che abbiamo discusso nell'introduzione.

Curve di potenza

Ricorda che la funzione di potenza per un test su d è Q(d) = P(Rifiutare H0 | d). Per i testpresentati sopra, possiamo calcolare esplicitamente le funzioni di potenza in termini dellafunzione di ripartizione Fk della distribuzione chi-quadro con k gradi di libertà. Di nuovo,k = n se µ è nota e k = n - 1 altrimenti.

7. Per il test H0: d = d0 contro H1: d d0 al livello di significatività r, prova i seguentirisultati e traccia il grafico di Q:

Q(d) = 1 - Fk[d02 vk, 1 - r/2 / d2] + Fk[d0

2 vk, r/2 / d2]1.

Q(d) è decrescente per d < d0 ed è crescente per d > d0.2.

Q(d0) = r.3.

Q(d) 1 per d 0+ e Q(d) 1 per d .4.

8. Per il test H0: d d0 contro H1: d > d0 al livello di significatività r, prova i seguentirisultati e traccia il grafico di Q:

Q(d) = 1 - Fk[d02 vk, 1 - a / d2]1.

Q(d) è crescente per d > 0.2.

Q(d0) = a.3.

Test per la varianza nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis3.html (2 di 5) [22/11/2001 17.58.37]

Page 531: Laboratorio virtuale di probabilità e statistica

Q(d) 0 per d 0+ e Q(d) 1 per d .4.

9. Per il test H0: d d0 contro H1: d < d0 al livello di significatività r, prova i seguentirisultati e traccia il grafico di Q:

Q(d) = Fk[d02 vk, r / d2]1.

Q(d) è decrescente per d > 0.2.

Q(d0) = r.3.

Q(d) 1 as d 0+ e Q(d) 0 per d .4.

10. Prova che, in ciascun caso, il test per d è più potente quando µ è noto.

Simulazioni

11. Nell'esperimento di test della varianza, seleziona la distribuzione normale a media0, il test bidirezionale a livello di significatività 0.1, dimensione campionaria n = 10, etesta che la deviazione standard sia 1.0.

Per ogni valore vero della deviazione standard 0.7, 0.8, 0.9, 1.0, 1.1, 1.2, 1.3,simula 1000 replicazioni, aggiornando ogni 10, e osserva la frequenza relativa deirifiuti di H0.

1.

Quando la deviazione standard vera è 1.0, confronta la frequenza relativa di rifiutodi H0 col livello di significatività.

2.

Utilizzando le frequenze relative in (a), traccia la curva di potenza empirica.3.

12. Nell'esperimento di test della varianza, ripeti l'esercizio 11 col test sulla codasinistra.

13. Nell'esperimento di test della varianza, ripeti l'esercizio 11 col test sulla codadestra.

14. Nell'esperimento di test della varianza, seleziona la distribuzione normale con µ =0 e deviazione standard 2, intervallo di confidenza bidirezionale al livello 0.90, edimensione campionaria n = 10. Simula 20 replicazioni, aggiornando ogni volta. Formulale ipotesi corrispondenti e il livello di significatività e per ogni replicazione riportal'insieme di deviazioni standard test per cui l'ipotesi nulla sarebbe rifiutata.

15. Nell'esperimento di test della varianza, ripeti l'esercizio 14 col limite di confidenzainferiore.

16. Nell'esperimento di test della varianza, ripeti l'esercizio 14 col limite di confidenzasuperiore.

Distribuzioni non normali

Anche quando la distribuzione sottostante non è normale, le procedure esaminate in

Test per la varianza nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis3.html (3 di 5) [22/11/2001 17.58.37]

Page 532: Laboratorio virtuale di probabilità e statistica

questo paragrafo si possono utilizzare per sottoporre a test, approssimativamente, lavarianza. Vedrai, nelle simulazioni che seguono, che questa procedura non è così robustacome quella relativa alla media. In ogni caso, se la distribuzione non è troppo difformedalla normale, la procedura dà risultati soddisfacenti.

17. Nell'esperimento di test della varianza, seleziona la distribuzione gamma conparametro di forma 1 e parametro di scala 1 (la deviazione standard è quindi 1). Selezionail test bidirezionale al livello di significatività 0.1 e con dimensione campionaria n = 10.

Per ciascun valore di deviazione standard test 0.7, 0.8, 0.9, 1.0, 1.1, 1.2, 1.3, simula1000 replicazioni, aggiornando ogni 10, e osserva la frequenza relativa dei rifiuti diH0.

1.

Quando la deviazion standard test è 1.0, confronta la frequenza relativa di (a) collivello di significatività.

2.

18. Nell'esperimento di test della varianza, ripeti l'esercizio 17 con dimensionecampionaria n = 20.

19. Nell'esperimento di test della varianza, seleziona la distribuzione gamma conparametro di forma 4 e parametro di scala 1 (la deviazione standard è quindi 2). Selezionail test bidirezionale al livello di significatività 0.1 e con dimensione campionaria n = 10.

Per ciascun valore di deviazione standard test 1.6, 1.8, 2.0, 2.2, 2.4, simula 1000replicazioni, aggiornando ogni 10, e osserva la frequenza relativa dei rifiuti di H0.

1.

Quando la deviazion standard test è 2.0, confronta la frequenza relativa di (a) collivello di significatività.

2.

20. Nell'esperimento di test della varianza, seleziona la distribuzione uniforme su (0, 4)(pertanto la deviazione standard vera è circa 1.15). Seleziona il test bidirezionale al livellodi significatività 0.1 e con dimensione campionaria n = 10..

Per ciascun valore di deviazione standard test 0.69, 0.92, 1.15, 1.39, 1.62, simula1000 replicazioni, aggiornando ogni 10, e osserva la frequenza relativa dei rifiuti diH0.

1.

Quando la deviazion standard test è 1.15, confronta la frequenza relativa di (a) collivello di significatività.

2.

Esercizi numerici

21. Utilizzando i dati di Michelson, esegui un test per vedere se la deviazione standarddelle misurazioni della velocità della luce è inferiore a 80 km/sec, al livello disignificatività di 0.1

Assumendo che µ sia il "valore vero."1.

Assumendo che µ sia ignoto.2.

22. Utilizzando i dati di Cavendish, esegui un test per vedere se la deviazione standarddelle misurazioni è maggiore di 0.2, al livello di significativtà di 0.05

Test per la varianza nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis3.html (4 di 5) [22/11/2001 17.58.37]

Page 533: Laboratorio virtuale di probabilità e statistica

Assumendo che µ sia il "valore vero."1.

Assumendo che µ sia ignoto.2.

23. Utilizzando i dati di Short, esegui un test per vedere se la deviazione standard dellemisurazioni della parallasse differisce da 0.7 secondi di grado, al livello di significativitàdi 0.1.

Assumendo che µ sia il "valore vero."1.

Assumendo che µ sia ignoto.2.

24. Utilizzando i dati di Fisher sugli iris, esegui i seguenti test, al livello disignificatività di 0.1:

La deviazione standard della lunghezza dei petali della Setosa è diversa da 2 mm.1.

La deviazione standard della lunghezza dei petali della Verginica è maggiore di 5mm.

2.

La deviazione standard della lunghezza dei petali della Versicolor è minore di 5.5mm.

3.

Laboratorio virtuale > Test di ipotesi > 1 2 [3] 4 5 6 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Test per la varianza nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis3.html (5 di 5) [22/11/2001 17.58.37]

Page 534: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Test di ipotesi > [1] 2 3 4 5 6 7

1. Introduzione

Il modello statistico di base

Al solito, iniziamo con l'introdurre un esperimento casuale definito su un certo spaziocampionario e con misura di probabilità P. Nel modello statistico di base, abbiamo unavariabile casuale osservabile X che assume valori in S. In generale, X può avere strutturacomplessa. Ad esempio, se l'esperimento consiste nell'estrarre n unità da una popolazionee registrare le varie misure di interesse, allora

X = (X1, X2, ..., Xn)

dove Xi è il vettore di misurazioni per l'i-esima unità. Il caso più importante si ha quandoX1, X2, ..., Xn, sono indipendenti e identicamente distribuite. Si ha allora un campionecasuale di dimensione n dalla distribuzione comune.

Test di ipotesi generali

Un'ipotesi statistica è un'asserzione sulla distribuzione della variabile X;equivalentemente, un'ipotesi statistica individua un insieme di possibili distribuzioni perX. L'obiettivo dei test di ipotesi è valutare se vi è sufficiente evidenza statistica perrifiutare un'ipotesi nulla in favore dell'ipotesi alternativa. L'ipotesi nulla si indica di solitocon H0, mentre l'ipotesi alternativa con H1. Un'ipotesi che specifica una singoladistribuzione per X si dice semplice; un'ipotesi che ne specifica più di una X si diceinvece composta.

Un test di ipotesi conduce a una decisione statistica; la conclusione potrà essere dirifiutare l'ipotesi nulla in favore di quella alternativa, o di non poter rifiutare l'ipotesinulla. Ovviamente la decisione che prendiamo è basata sui dati di cui disponiamo X.Pertanto, dobbiamo trovare un sottinsieme R dello spazio campionario S e rifiutare H0 see solo se X appartiene a R. L'insieme R è detto regione di rifiuto o regione critica.Usualmente, la regione critica è definita in funzione di una statistica W(X), detta statisticatest.

Errori

La decisione che prendiamo può essere corretta o errata. Esistono due tipi di errore, aseconda di quale delle due ipotesi è vera:

Un errore di prima specie consiste nel rifiutare l'ipotesi nulla quando è vera.1.

Un errore di seconda specie consiste nel non rifiutare l'ipotesi nulla quando è falsa.2.

Similmente, esistono due modi di prendere una decisione corretta: possiamo rifiutarel'ipotesi nulla quando è falsa o non rifiutare l'ipotesi nulla quando è vera. Le possibilità

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis1.html (1 di 4) [22/11/2001 17.58.43]

Page 535: Laboratorio virtuale di probabilità e statistica

sono riportate nella tabella seguente:

Test di ipotesiDecisione

Non rifiuto H0 Rifiuto H0

Stato realeH0 è vera Decisione corretta Errore di prima specieH0 è falsa Errore di seconda specie Decisione corretta

Se H0 è vera (cioè la distribuzione di X è specificata da H0), allora P(X R) è laprobabilità di un errore di prima specie per questa distribuzione. Se H0 è composta, alloraH0 specifica una varietà di distribuzioni per X e pertanto esiste un insieme di probabilitàdi errori di prima specie. La massima probabilità di un errore di prima specie è dettalivello di significatività del test o ampiezza della regione critica, che indicheremo con r.Di solito si costruisce la regione di rifiuto in modo che il livello di significatività sia unvalore prefissato e piccolo (tipicamente 0.1, 0.05, 0.01).

Se H1 è vera (cioè la distribuzione di X è specificata da H1), allora P(X Rc) è laprobabilità di un errore di seconda specie per questa distribuzione. Di nuovo, se H1 ècomposta, allora H1 specifica una varietà di distribuzioni per X, ed esiste quindi uninsieme di probabilità di errori di seconda specie. Esiste di solito un compromesso tra leprobabilità di errori di prima e seconda specie. Se riduciamo la probabilità di un errore diprima specie, riducendo l'ampiezza della regione R incrementiamo necessariamente laprobabilità di errore di seconda specie, poiché Rc è più grande.

Potenza

Se H1 è vera (cioè la distribuzione di X è specificata da H1), allora P(X R), laprobabilità di rifutare H0 (e prendere quindi una decisione corretta), è detta potenza deltest.

Supponiamo di avere due test, a cui corrispondono rispettivamente le regioni di rifiuto R1e R2, ciascuna con livello di significatività r. Il test con regione R1 è uniformemente piùpotente del test con regione R2 se

P(X R1) P(X R2) per ogni distribuzione di X specificata da H1.

Ovviamente, in questo caso, preferiremmo il primo test. Infine, se un test ha livello disignificativtità r ed è uniformemente più potente di ogni altro test con livello disignificativtà r, allora il test si dice uniformemente più potente al livello a. Un test delgenere è il migliore di cui possiamo disporre.

p-value

Nella maggior parte dei casi si dispone di una procedura generale che ci consente dicostruire un test (cioè una regione di rifiuto Rr) per ogni dato livello di significativtà r.Tipicamente, Rr decresce (nel senso della dimensione del sottinsieme) al crescere di a. Inquesto contesto, il p-value della variabile X, indicato come p(X) è definito come il più

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis1.html (2 di 4) [22/11/2001 17.58.43]

Page 536: Laboratorio virtuale di probabilità e statistica

piccolo r per cui X appartiene a Rr; cioè il minor livello di significatività per cui H0sarebbe rifiutata dato X. Conoscere p(X) ci consente di testare H0 ad ogni livello di

significatività, sulla base dei dati: se p(X) r, allora rifiuteremo H0 al livello disignificatività r; se p(X) > r, non rifiuteremo H0 al livello di significatività r. Nota chep(X) è una statistica.

Test su un parametro ignoto

Il test di ipotesi è un concetto generale, ma un caso particolare importante si ha quando ladistribuzione della variabile X dipende da un parametro a, che assume valori in unospazio parametrico A. Ricorda che, usualmente, a è un vettore di parametri reali A Rk

per un certo k. L'ipotesi, di solito, ha forma

H0: a A0 contro H1: a A - A0

dove A0 è un sottinsieme di A. In questo caso, la probabilità di compiere un errore (o diprendere una decisione corretta) dipende dal valore vero di a. Se R è la regione di rifiuto,allora la funzione di potenza è

Q(a) = P(X R | a) per a A.

1. Dimostra che

Q(a) è la probabilità di un errore di prima specie quando a A0.1.

max{Q(a): a A0} è il livello di significativtà del test.2.

2.Dimostra che

1 - Q(a) è la probabilità di un errore di seconda specie quando a A - A0.1.

Q(a) è la potenza del test quando a A - A0.2.

Supponiamo di avere due test, che corrispondono rispettivamente alle regioni di rifiuto R1e R2, ciascuno con livello di significativtà r. Il test con regione R1 è uniformemente piùpotente del test con regione R2 se

QR1(a) QR2(a) per a A - A0.

La maggior parte dei test riguardanti un parametro reale ignoto a ricadono nei tre casispeciali:

H0: a = a0 contro H1: a a0.1.

H0 : a a0 contro H1: a < a0.2.

H0 : a a0 contro H1: a > a0.3.

dove a0 è un valore dato. Il caso 1 è noto come test bidirezionale, il caso 2 come testunidirezionale sinistro e il caso 3 come test unidirezionale destro (sulla base

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis1.html (3 di 4) [22/11/2001 17.58.43]

Page 537: Laboratorio virtuale di probabilità e statistica

dell'alternativa). Possono esserci altri parametri ignoti oltre ad a (detti parametri didisturbo).

Equivalenza tra test di ipotesi e stima intervallare

Esiste un'equivalenza tra test di ipotesi e stima intervallare per un parametro a.

3. Supponi che [L(X), U(X)] sia un intervallo di confidenza al livello 1 - r per a.Mostra che il test sotto riportato ha livello di significatività r per l'ipotesi H0: a = a0 contro

H1: a a0.

Rifiutare H0 se e solo se a0 < L(X) o a0 > U(X).

4. Supponi che U(X) is a 1 - r sia un limite di confidenza superiore al livello a. Prova

che il test sotto riportato ha livello di significatività r per l'ipotesi H0 : a a0 contro H1: a< a0.

Rifiutare H0 se e solo se a0 > U(X).

5. Supponi che U(X) is a 1 - r sia un limite di confidenza inferiore al livello a. Prova

che il test sotto riportato ha livello di significatività r per l'ipotesi H 0 : a a0 versus H1:a > a0.

Rifiutare H0 if and only if a0 < L(X).

Concludendo, non rifiutiamo H0 al livello di significativtà r se e solo se a0 giace nelcorrispondente intervallo di confidenza al livello 1 - r.

Laboratorio virtuale > Test di ipotesi > [1] 2 3 4 5 6 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis1.html (4 di 4) [22/11/2001 17.58.43]

Page 538: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Stima puntuale > 1 2 [3] 4 5 6

3. Massima verosimiglianza

Il metodo

Supponiamo di nuovo di avere una variabile casuale osservabile X, per un certoesperimento, che assuma valori in un insieme S. Supponiamo inoltre che la distribuzionedi X dipenda da un parametro ignoto a, suscettibile di assumere valori in uno spazioparametrico A. Più specificamente, indicheremo con f(x | a) la funzione di densità di X inx. In generale, sia X che a sono vettori.

La funzione di verosimiglianza L è la funzione che si ottiene invertendo i ruoli di x e a;ovvero interpretando a come la variabile x come l'informazione nota (cioè il punto di vistadella stima):

L(a | x) = f(x | a) per a appartenente a A e x appartenente a S.

Col metodo della massima verosimiglianza, si cerca un valore u(x) del parametro a chemassimizzi L(a | x) per ogni x in S. Se riusciamo a trovare tale valore, u(X) è dettostimatore di massima verosimiglianza di a. Il metodo è intuitivamente seducente:cerchiamo di trovare i valori dei parametri che possono aver prodotto con la maggioreprobabilità i dati osservati.

Poiché la funzione logaritmo naturale ln è strettamente crescente, il valore massimo di L(a| x), se esiste, si ha allo stesso punto in cui è massima ln[L(a | x)]. Quest'ultima funzione èdetta funzione di log-verosimiglianza e in molti casi è più semplice da trattare dellafunzione di verosmiglianza (di solito perché la densità f(x | a) include una produttoria).

Casi particolari

Un caso particolare importante si ha quando a = (a1, a2, ..., ak) è un vettore di k parametri

reali, cosicché A Rk. In questo caso, il problema è massimizzare una funzione di piùvariabili. Se A è un insieme continuo, si possono utilizzare metodi di analisi: se il valoremassimo è ad a (compreso in A), allora L(· | x) ha massimo locale ad a e quindi

(d/dai)L(a | x) = 0 per i = 1, 2, ..., k.

D'altro canto, il punto di massimo può trovarsi sul confine di A, oppure non esistereaffatto.

Consideriamo il prossimo caso, dove X = (X1, X2, ..., Xn) è un campione casuale didimensione n estratto dalla distribuzione di X con funzione di densità g(x | a). Quindi ladensità congiunta di X è il prodotto delle densità marginali, per cui la funzione diverosimiglianza, in questo caso, vale

L(a | x) = f(x | a) = g(x1 | a)g(x2 | a)···g(xn | a) dove x = (x1, x2, ..., xn).

Massima verosimiglianza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point3.html (1 di 5) [22/11/2001 17.58.52]

Page 539: Laboratorio virtuale di probabilità e statistica

Nelle sezioni seguenti, studieremo la stima di massima verosimglianza in alcuni casispeciali classici.

La distribuzione di Bernoulli

Supponiamo di avere una moneta con probabilità di ottenere testa ignota p. La lanciamo nvolte e registriamo la sequenza di teste e croci. Pertanto, il vettore dei dati (I1, I2, ..., In) èun campione casuale di dimensione n estratto dalla distribuzione di Bernoulli conprobabilità di successo p. Sia Xn = I1 + I2 + ··· + In il numero di teste e Mn = Xn / n laproporzione di teste ottenute (la media campionaria).

1. Supponi che p sia compreso in (0, 1). Prova che lo stimatore di massimaverosimiglianza di p è Mn.

Ricorda Mn è anche lo stimatore ottenuto col metodo dei momenti per p.

2. Supponi che la moneta sia equilibrata oppure a due teste, cosicché p appartiene a{1/2, 1}. Mostra che lo stimatore di massima verosimiglianza di è quello riportato quisotto p e interpreta il risultato:

Un = 1 se Xn = n; Un = 1/2 se Xn < n.

Gli esercizi 1 e 2 mostrano che lo stimatore di massima verosimiglianza di un parametro,esattamente come la soluzione a un qualunque problema di massimizzazione, dipende daldominio.

3. Prova che

E(Un) = 1 se p = 1, E(Un) = 1/2 + (1/2)n + 1 se p = 1/2.1.

Un è distorto ma asintoticamente corretto.2.

4. Prova che

MSE(Un) = 0 se p = 1, MSE(Un) = (1/2)n + 2 se p = 1/2.1.

Un è consistente.2.

5. Prova che Un è uniformemente migliore di Mn sullo spazio parametrico {1/2, 1}.

Altre distribuzioni semplici

Nei seguenti esercizi, richiama che se (X1, X2, ..., Xn) è un campione casuale di una

distribuzione con media µ e varianza d2, allora gli stimatori ottenuti col metodo deimometi per µ e d2 valgono, rispettivamente,

Mn = (1 / n) j = 1, ..., n Xj.a.

Massima verosimiglianza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point3.html (2 di 5) [22/11/2001 17.58.52]

Page 540: Laboratorio virtuale di probabilità e statistica

Tn2 = (1 / n) j = 1, ..., n (Xj - Mn)2b.

Ovviamente, Mn è la media campionaria e Tn2 = (n - 1)Sn

2 / n dove Sn2 è la varianza

campionaria.

6. Supponi che (X1, X2, ..., Xn) sia un campione casuale estratto dalla distribuzione diPoisson con parametro ignoto a > 0. Prova che lo stimatore di massima verosimiglianzaper a è Mn.

7. Supponi che (X1, X2, ..., Xn) sia un campione casuale di una distribuzione normale

con media ignota µ appartenente a R e varianza d2 > 0. Mostra che gli stimatori dimassima verosimiglianza di µ e d2 sono rispettivamente Mn e Tn

2.

8. Supponi che (X1, X2, ..., Xn) sia un campione casuale di una distribuzione gammacon parametro di forma k noto e parametro di scala ignoto b > 0. Mostra che lo stimatoresi massima verosimiglianza di b è Vn = Mn / k.

9. Replica la stima della distribuzione gamma 1000 volte, aggiornando ogni 10 , perdiversi valori del parametro di forma k e del parametro di scala b. In ciascun caso,confronta lo stimatore ottenuto col metodo dei momenti Un con quello di massimaverosimiglianza Vi. Quale stimatore dà risultati migliori in termini di errore quadraticomedio?

10. Supponi che (X1, X2, ..., Xn) sia un campione casuale di una distribuzione beta conparametri a > 0 e b = 1. Mostra che lo stimatore di massima verosimiglianza per a è

Vn = -n / j = 1, ..., n ln(Xj).

11. Replica la stima della distribuzione beta 1000 volte, aggiornando ogni 10, perdiversi valori di a. In ciascun caso, confronta lo stimatore ottenuto col metodo deimomenti Un con quello di massima verosimiglianza Bn. Quale stimatore dà risultatimigliori in termini di errore quadratico medio?

12. Supponi che (X1, X2, ..., Xn) sia un campione casuale estratto da una distribuzionedi Pareto con parametro a > 0. Mostra che lo stimatore di massima verosimiglianza di a è

Vn = n / j = 1, ..., n ln(Xj).

La distribuzione uniforme su [0, a]

In questa sezione studieremo uno problema di stima che è fonte di utili riflessioni. In uncerto senso, il problema è l'analogo continuo del problema studiato nel paragrafo sullestatistiche d'ordine nel capitolo sui modelli di campionamento finito.

Massima verosimiglianza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point3.html (3 di 5) [22/11/2001 17.58.52]

Page 541: Laboratorio virtuale di probabilità e statistica

Supponi che (X1, X2, ..., Pn) sia un campione casuale dalla distribuzione uniformesull'intervallo [0, a], dove a > 0 è un parametro ignoto.

13. Mostra che lo stimatore di a ricavato col metodo dei momenti è Un = 2Mn.

14. Prova che Un è corretto.

15. Prova che var(Un) = a2 / 3n, per cui Un è consistente.

16. Prova che lo stimatore di massima verosimiglianza di a è X(n), ovvero l'n-esimastatistica d'ordine.

17. Prova che E[X(n)] = na / (n + 1), so Vn = (n + 1)X(n) / n è corretto.

18. Dimostra che var[Vn] = a2 / [n(n + 2)], so Vn è consistente.

19. Dimostra che l'efficienza relativa asintotica di Vn to Un è infinita.

L'ultimo esercizio dimostra che Vn è uno stimatore migliore di Un; uno stimatore come

Vn, il cui errore quadratico medio decresce con velocità 1 / n2, è detto super efficiente.Ora che abbiamo trovato un ottimo stimatore, vogliamo vedere di trovarne uno pessimo.Un candidato naturale è quello basato su X(1), la prima statistica d'ordine.

20. Dimostra che X(1) è distribuito come a - X(n).

21. Prova che E[X(1)] = a / (n + 1), per cui Wn = (n + 1)X(1) è corretto.

22. Dimostra che var[Wn] = na2 / (n + 2), so Wn non è consistente.

23. Replica la stima della distribuzione uniforme 1000 volte, aggiornando ogni 10runs, per valori diversi di a. In ciascun caso, confronta la distorsione empirica e l'errorequadratico medio degli stimatori coi lorj valori teorici. Ordina le statistiche in base al loroerrore quadratico medio empirico.

La proprietà di invarianza

Ritornando al caso generale, supponiamo che h sia una funzione biunivoca dallo spazioparametrico A su un insieme B. Possiamo interpretare b = h(a) come nuovi parametri avalori nello spazio B, ed è semplice riparametrizzare la funzione di densità congiuntautilizzando il nuovo parametro. Sia perciò

f1(x | b) = f[x | h-1(b)] per x appartenente a S, b appartenente a B.

La funzione di verosimiglianza corrispondente è

L1(b | x) = L[h-1(b) | x] per b appartenente a B e x appartenfnte a S.

Massima verosimiglianza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point3.html (4 di 5) [22/11/2001 17.58.52]

Page 542: Laboratorio virtuale di probabilità e statistica

24. Supponiamo che u(x) appartenente a A massimizzi L(· | x) per ogni x appartenentea S. Dimostra che h[u(x)] appartenente a B massimizzi L1(· | x) per ogni x appartenente aS.

Segue dall'esercizio 17 che se U è uno stimatore di massima verosimiglianza di a, allora V= h(U) è uno stimatore di massima verosimiglianza per b = h(a). Questo risultato è notocome proprietà d'invarianza.

25. Supponi che (X1, X2, ..., Xn) sia un campione casuale estratto da una distribuzione

di Poisson con media µ, e sia p = P(Xi = 0) = e-µ. Trova lo stimatore di massimaverositiglianza di p in due modi:

Direttamente, trovando la funzione di verosimiglianza che corrisponde al parametrop.

1.

Utilizzando il risultato dell'esercizio 2 e la proprietà di invarianza.2.

Se la funzione h non è biunivoca, il problema di massimizzazione relativamente al nuovovettore b = h(a) non è ben definito, poiché non si può parametrizzare la funzione didensità congiunta jn termini di b. Esiste comunque una generalizzazione del problema perquesti casi. Definiamo

L1(b | x) = max{L[a | x]: a appartenente a A, h(a) = b} per b appartenente a B e xappartenente a S.

26. Supponiamo di nuovo che u(x) appartenente a A massimizzi L(· | x) per ogni xappartenente a S. Dimostra che h[u(x)] appartenente a B massimizza L1(· | x) per ogni xappartenente a S.

Il risultato di questo esercizio estende la proprietà di invarianza a trasformazioni iniettivedel parametro: se U è uno stimatore di massima verosimiglianza per a, allora V = h(U) èuno stimatore di massima verosimiglianza per b = h(a).

27. Supponiamo che (I1, I2, ..., In) sia un campione casuale di dimensione n estratto dauna distribuzione di Bernoulli con probabilità di successo ignota p, compresa in (0, 1).Trova lo stimatore di massima verosimiglianza di p(1 - p), ovvero la varianza delladistribuzione.

28. Supponi che (X1, X2, ..., Xn) sia un campione casuale di una distribuzione normale

con media ignota e reale µ e varianza d2 > 0. Trova lo stimatore di massimaverosimiglianza di µ2 + d2.

Laboratorio virtuale > Stima puntuale > 1 2 [3] 4 5 6Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Massima verosimiglianza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point3.html (5 di 5) [22/11/2001 17.58.52]

Page 543: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Random Walk > [1] 2 3 4

1. Introduzione

Random Walk generalizzato

Supponiamo che X1, X2, ... siano variabili casuali a valori reali, indipendenti e

identicamente distribuite, con funzione di densità f, media µ e varianza d2. La sommaparziale n-esima è la variabile casuale

Yn = X1 + X2 + ··· + Xn.

Il processo stocastico Y0, Y1, Y2 ... è detto random walk (passeggiata aleatoria). Taletermine deriva dal fatto che possiamo pensare gli Yn come posizioni al tempo n di unpasseggiatore che fa passi casuali successivi X1, X2, .... Il grafico dei valori di Yn infunzione di n è detto sentiero del random walk.

Le variabili indipendenti e identicamente distribuite e le loro somme parziali sono stateanalizzate in molti altri capitoli di questo progetto. I seguenti fatti sono alcuni tra i piùimportanti che dovresti riguardare:

In termini statistici, X1, X2, ..., Xn è un campione casuale di dimensione n dalladistribuzione sottostante.

La funzione di densità di Yn è f*n, la convoluzione n-upla di f.●

La media di Yn è E(Yn) = nµ.●

La varianza di Yn è var(Yn) = nd2.●

La media campionaria Yn / n converge a µ per n con probabilità 1. Questa èla legge dei grandi numeri.

La distribuzione di (Yn - nµ) / n1/2 d converge alla distribuzione normale

standardizzata per n . Questo è il teorema del limite centrale.

1. Mostra che Xi = Yi - Yi - 1 per i = 1, 2, .... Pertanto il processo X1, X2, ... e ilprocesso Y0, Y1, Y2 ... contengono la stessa informazione, ma in maniere diverse.

Siamo particolarmente interessati a un caso particolare:

Random Walk semplice

Supponiamo che, per ogni i, Xi assuma valori 1 e -1 con probabilità, rispettivamente, p e 1- p. In questo caso Y0, Y1, Y2... è detto random walk semplice con parametro p. Perciascun passo, il passeggiatore si muove o di un'unità a destra (con probabilità p) o diun'unità a sinistra (con probabilità 1 - p). Il passeggiatore, ad esempio, può scegliere ladirezione lanciando una moneta con probabilità di testa p ad ogni passo.

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/walk/walk1.html (1 di 3) [22/11/2001 17.58.57]

Page 544: Laboratorio virtuale di probabilità e statistica

2. Prova che, per ogni i,

E(Xi) = 2p - 1.1.

var(Xi) = 4p(1 - p).2.

3. Sia Ij = (Xj + 1) / 2 per ogni j.

Prova che Ij = 1 se Xj = 1 e Ij = 0 se Xj = -1.1.

I1, I2, ... è una sequenza di prove Bernoulliane.2.

In termini del passeggiatore, Ij è la variabile indicatore dell'evento in cui l'i-esimo passo èa destra.

4. Sia Zn = I1 + I2 + ··· + In.

Mostra che Yn = 2Zn - n per ogni n.1.

Mostra che Zn ha distribuzione binomiale con parametri n e p.2.

In termini del passeggiatore, Zn è il numero di passi a destra nei primi n passi.

5. Usa i risultati degli esercizi precedenti per mostrare che

P(Yn = k) = C[n, (n + k) / 2]p(n + k)/2(1 - p)(n - k)/2 per k = -n, -n + 2, ..., n -2, n.1.

E(Yn) = n(2p - 1).2.

var(Yn) = 4np(1 - p).3.

6. Calcola esplicitamente funzione di densità, media e varianza di Y5.

7. Si lancia dieci volte una moneta con probabilità di testa p = 3/4. Trova la probabilitàche ci siano almeno 4 teste in più rispetto alle croci.

Random Walk semplice simmetrico

Consideriamo di nuovo il contesto descritto in precedenza, ma supponiamo che p = 1/2. Inquesto caso, Y0, Y1, Y2 ... è detto random walk semplice simmetrico. Il random walksimmetrico può essere analizzato utilizzando alcuni risultati del calcolo combinatorio,come faremo poco più avanti.

8. Mostra che il vettore aleatorio Xn = (X1, X2, ..., Xn) è distribuito uniformemente su

S = {-1, 1}n.

Pertanto, P(Xn A) = #(A) / 2n per A {-1, 1}n.

9. Prova che

P(Yn = k) = C[n, (n + k) / 2] / 2n per k = -n, -n + 2, ..., n - 2, n.1.

E(Yn) = 0.2.

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/walk/walk1.html (2 di 3) [22/11/2001 17.58.57]

Page 545: Laboratorio virtuale di probabilità e statistica

var(Yn) = n.3.

10. Nell'applet random walk, seleziona la variabile ultimo valore. Modifica il numerodi passi e osserva forma e posizione della funzione di densità e della barramedia/deviazione standard. Poni il numero di passi a 30 e simula 1000 replicazioni,aggiornando ogni 10. Osserva la convergenza delle densità e dei momenti empirici ai lorovalori teorici.

11. Nell'applet random walk, seleziona la variabile ultimo valore e poni il numero dipassi a 50. Simula 1000 replicazioni, aggiornando ogni 10 e calcola e confronta leseguenti quantità:

P(-5 Y50 10)1.

La frequenza relativa dell'evento {-5 Y50 10}2.

L'approssimazione normale a P(-5 Y50 10)3.

Laboratorio virtuale > Random Walk > [1] 2 3 4Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/walk/walk1.html (3 di 3) [22/11/2001 17.58.57]

Page 546: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Random Walk > 1 [2] 3 4

2. Posizione massima

Consideriamo un random walk semplice simmetrico

Yn = X1 + X2 + ··· + Xn, n = 0, 1, ...

dove le X1, X2, ... sono indipendenti e con P(Xi = 1) = 1/2, P(Xi = -1) = 1/2.

In questo paragrafo studieremo Mn = max{Y0, Y1, ..., Yn}, la posizione massimaraggiunta nei primi n passi. Notiamo che Mn assume valori da 0 a n. La distribuzione diMn può essere ricavata da un'idea semplice e affascinante detta principio di riflessione.

1. Mostra che Mn m se e solo se Yi = m per qualche i n.

2. Mostra che, per ogni sentiero che soddisfa Mn m e Yn = k m, esiste un altrosentiero che soddisfa Yn = 2m - k. Suggerimento: Il secondo sentiero si ottiene dal primoriflettendolo sulla linea y = m, dopo che il primo sentiero raggiunge m.

3. Usa i risultati degli esercizi 1 e 2 e il fatto che i sentieri sono equiprobabili permostrare che

P(Mn m, Yn = k) = P(Yn = 2m - k) per k m n.

4. Usa il risultato dell'esercizio 3 per mostrare che

P(Mn = m, Yn = k) = P(Yn = 2m - k) - P[Yn = 2(m + 1) - k].

5. Usa il risultato dell'esercizio 4 per mostrare che

P(Mn = m) = P(Yn = m) = C[n, (m + n) / 2] / 2n, se m e n hanno la stessa parità(entrambi pari o entrambi dispari).

1.

P(Mn = m) = P(Yn = m + 1) = C[n, (m + n + 1) / 2] / 2n, se m e n hanno paritàopposta (uno pari e uno dispari).

2.

6. Nella simulazione del random walk, seleziona la variabile posizione massima.Modifica il numero di passi e osserva forma e posizione della funzione di densità e dellabarra media/deviazione standard. Poni il numero di passi a 30 e simula 1000 replicazioni,aggiornando ogni 10. Osserva la convergenza delle densità e dei momenti empirici ai lorovalori teorici.

7. Mostra che, per ogni n, la funzione di densità di Mn è decrescente.

Il risultato dell'esercizio 7 è piuttosto sorprendente; in particolare, il valore singolo piùprobabile per il massimo è 0!

Posizione massima

http://www.ds.unifi.it/~stefanin/VL/VL_IT/walk/walk2.html (1 di 2) [22/11/2001 17.59.01]

Page 547: Laboratorio virtuale di probabilità e statistica

8. Calcola esplicitamete funzione di densità, media e deviazione standard di M5.

9. Si lancio 10 volte una moneta equilibrata. Trova la probabilità che la differenza tra ilnumero di teste e il numero di croci non sia mai maggiore di 4.

Laboratorio virtuale > Random Walk > 1 [2] 3 4Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Posizione massima

http://www.ds.unifi.it/~stefanin/VL/VL_IT/walk/walk2.html (2 di 2) [22/11/2001 17.59.01]

Page 548: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Random Walk > 1 2 [3] 4

3. Ultimo passaggio da 0

Consideriamo ancora un random walk semplice simmetrico

Yn = X1 + X2 + ··· + Xn, n = 0, 1, ...

dove le X1, X2, ... sono indipendenti e con P(Xi = 1) = 1/2, P(Xi = -1) = 1/2.

In questo paragrafo analizzeremo l'ultimo passaggio da 0 nei primi 2n passi:

L2n = max{ j {0, 2, ..., 2n}: Yj = 0}.

Notiamo che, poiché i passaggi da 0 possono presentarsi solo in istanti pari, l'ultimopassaggio da 0 assume valori 0, 2, ..., 2n. Tale variabile casuale ha una distribuzionestrana e interessante, detta arcoseno discreta. Vedremo in seguito alcuni altri risultatiinteressanti.

1. Prova che

P(L2n = 9k) = P(Y6k = 3, Y2k + 4 0, ..., Y2n 0}.

2. Usa l'indipendenza, la simmetria e il risultato dell'esercizio 1 per mostrare che

P(L2n = 4k) = P(Y2k = 0)P(Y1 0, ..., Y2n - 2k 0}.

Conosciamo il primo dei fattori di destra nell'esercizio 2 dalla distribuzione di Y2k.Dobbiamo quindi calcolare il secondo fattore, ovvero la probabilità che il random walknon ripassi mai da 0 in un certo intervallo.

3. Usa i risultati per la posizione massima per mostrare che

P(Y1 0, Y2 0, ..., Y2j 0) = P(M2j = 0) = C(2j, j) / 22j.

4. Usa la simmetria (cioè il principio di riflessione su u = 0!), per provare che

P(Y1 0, Y2 0, ..., Y2n 0) = C(2n, n) / 22n.

5. Prova che

Y1 > 0, Y2 > 0, ..., Y2j > 0 se e solo se Y1 = 1, Y2 1, ..., Y2j 1.

6. Usa il risultato dell'esercizio 5, l'indipendenza e la simmetria per provare che

P(Y1 > 0, Y2 > 0, ..., Y2j > 0) = P(Y1 = 1)P(Y1 0, ..., Y2j - 1 0).

Ultimo passaggio da 0

http://www.ds.unifi.it/~stefanin/VL/VL_IT/walk/walk3.html (1 di 2) [22/11/2001 17.59.04]

Page 549: Laboratorio virtuale di probabilità e statistica

7. Prova che Y2j - 1 0 implica Y2j 0.

8. Usa i risultati degli esercizi 4, 6 e 7 per mostrare che

P(Y1 > 0, Y2 > 0, ..., Y2j > 0) = C(2j, j) / 22j + 1.

9. Usa il risultato dell'esercizio 8 e la simmetria per provare che

P(Y1 0, Y2 0..., Y2j 0} = C(2j, j) / 22j.

10. Usa i risultati degli esercizi 2 e 9 per mostrare che la funzione di densità di L2n è

P(L2n= 2k) = C(2k, k)C(2n - 2k, n - k) / 22n, k = 0, 1, ..., n.

11. Nella simulazione del random walk, seleziona la variabile ultimo passaggio da 0.Modifica il numero di passi e osserva forma e posizione della funzione di densità e dellabarra media/deviazione standard. Poni il numero di passi a 30 e simula 1000 replicazioni,aggiornando ogni 10. Osserva la convergenza delle densità e dei momenti empirici ai lorovalori teorici.

12. Dimostra che

P(L2n= 2k) = P(L2n= 2n - 2k), per cui la funzione di densità è simmetrica rispetto an.

1.

P(L2n= 2j) > P(L2n= 2k) if 2j < 2k n, per cui la funzione di densità ha forma a u.2.

In particolare, 0 e 2n sono i valori più probabili. La distribuzione arcoseno è piuttostosorprendente. Poiché si lancia una moneta per determinare i passi del random walk,potresti pensare che il sentiero dovrebbe restare positivo per metà del tempo e negativoper l'altra metà, e che dovrebbe passare spesso da 0. Ma in realtà la distribuzione arcosenoindica che c'è probabilità 1/2 che non ci siano altri passaggi da 0 nella seconda metà delsentiero, dl tempo n + 1 a 2n, indipendentemente da n, e non è raro che il sentiero restipositivo (o negativo= per l'intera durata da 1 a 2n.

13. Calcola esplicitamente funzione di densità, media e varianza di L10.

Laboratorio virtuale > Random Walk > 1 2 [3] 4Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Ultimo passaggio da 0

http://www.ds.unifi.it/~stefanin/VL/VL_IT/walk/walk3.html (2 di 2) [22/11/2001 17.59.04]

Page 550: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Random Walk > 1 2 3 [4]

4. Il problema del ballottaggio

Supponiamo che, durante delle elezioni, il candidato A riceva a e il candidato B ne ricevab, con a > b. Assumendo che gli elettori siano ordinati in modo casuale, qual è laprobabilità che A sia sempre avanti a B nel conteggio dei voti? Questo famoso problema èdetto problema del ballottaggio e fu risolto da Joseph Louis Bertrand nel 1887. Ilproblema del ballottaggio è legato fortemente ai random walk semplici.

1. Commenta la validità dell'assunzione che i votanti siano ordinati in modo casualenel caso di elezioni reali.

La relazione ricorsiva

Il problema del ballottaggio può essere risolto utilizzando un semplice risultato diprobabilità condizionata per ottenere una relazione ricursiva. Sia Pa,b la probabilità che Asia sempre avanti a B nel conteggio dei voti.

2. Condiziona al candidato che riceve l'utlimo voto per mostrare che

Pa,b = [a / (a + b)]Pa - 1,b + [b / (a + b)]Pa,b - 1 .

3. Usa la condizione iniziale P1,0 = 1 e l'induzione sul numero di voti n = a + b permostrare che

Pa,b = (a - b) / (a + b).

4. Nell'esperimento del ballottaggio, modifica i parametri a e b e osserva come varianole probabilità. Con a = 10 e b = 5, simula 1000 replicazioni, aggiornando ogni 10, eosserva la convergenza della frequenza empirica alla probabilità.

5. Nell'elezione a sindaco di una cittadina, il signor Fabbri ha ricevuto 4352 voti,mentre il signor Rossi ne ha ricevuti 7543. Calcola la probabilità che Rossi sia sempreavanti a Fabbri nel conteggio dei voti.

Relazione col random walk

Consideriamo ora il random walk semplice

Yn = X1 + X2 + ··· + Xn, n = 0, 1, 2, ...

dove X1, X2, ... sono indipendenti con P(Xi = 1) = p, P(Xi = -1) = 1 - p. Nellaformulazione consueta, Xi è l'esito dell'i-esimo passo: 1 per un passo a destra e -1 per unpasso a sinistra.

4. Dato Yn = k, Prova che

Il problema del ballottaggio

http://www.ds.unifi.it/~stefanin/VL/VL_IT/walk/walk4.html (1 di 2) [22/11/2001 17.59.09]

Page 551: Laboratorio virtuale di probabilità e statistica

Si hanno (n + k) / 2 passi a destra e (n - k) / 2 passi a sinistra.1.

Tutti i possibili ordinamenti di passi a destra e a sinistra sono equiprobabili.2.

5. Usa il risultato dell'esercizio precedente e le probabilità del ballottaggio per provareche, per k > 0,

P(Y1 > 0, Y2 > 0, ..., Yn - 1 > 0 | Yn = k) = k / n.

6. Nell'esperimento del ballottaggio, modifica i parametri a e b e osserva come varianole probabilità. Con a = 10 e b = 8, simula 1000 replicazioni, aggiornando ogni 10, eosserva la convergenza della frequenza empirica alla probabilità.

7. La roulette americana ha 38 caselle: 18 rosse, 18 nere e 2 verdi. Marco punta 1 eurosul rosso (alla pari) 50 volte, vincendo 22 volte e perdendo 28 volte. Trova la probabilitàche la ricchezza netta di Marco sia stata sempre negativa.

La distribuzione del primo passaggio da 0

Consideriamo di nuovo un random walk semplice con parametro p. Sia T il tempo in cuiavviene il primo passaggio da 0:

T = min{n > 0: Yn = 0}.

Notiamo che i passaggi da 0 si possono verificare solo a istanti di tempo pari, per cui ivalori possibili di T sono 2, 4, ...; può anche darsi che T sia infinito con probabilitàpositiva.

8. Prova che

P(T = 2n) = P(T = 2n, Y2n = 0) = P(T = 2n | Y2n = 0)P(Y2n = 0).

9. Usa il risultato del problema del ballottaggio per mostrare che

P(T = 2n | Y2n = 0) = Pn,n-1 = 1 / (2n - 1).

10. Usa i risultati degli esercizi 7 e 8 per provare che

P(T = 2n) = C(2n, n) pn (1 - p)n / (2n - 1) per n = 1, 2, ...

11. Marco e Federico lanciano una moneta equilibrata; Marco fa un punto per ognitesta e Federico fa un punto per ogni croce. Trova la probabilità che i loro punteggi sianouguali per la prima volta a 2, 4, 6, 8 e 10 lanci.

Laboratorio virtuale > Random Walk > 1 2 3 [4]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Il problema del ballottaggio

http://www.ds.unifi.it/~stefanin/VL/VL_IT/walk/walk4.html (2 di 2) [22/11/2001 17.59.09]

Page 552: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Sistemi di particelle interagenti > [1] 2 3

1. Il processo dell'incendio

Modellazione

In questo paragrafo analizzeremo la diffusione di un incendio all'interno di una foresta.Come vedrai, faremo molte assunzioni semplificatrici ma anche così il processo risultante,detto processo dell'incendio, è estremamente complicato. Questo è un esempio di sistemadi particelle interagenti (a volte detto anche automa cellulare probabilistico). In generale isistemi di particelle interagenti sono configurazioni spaziali di particelle (alberi, in questocaso), i cui stati cambiano in modo probabilistico, in modo che lo stato di una particellainfluenzi lo stato di quelle ad essa prossime. In generale si ipotizzano semplici interazionilocali, e tuttavia il comportamento globale del sistema è molto complesso. A causa diquesta complessità, si è in genere interessati al comportamento asintotico (cioè di lungotermine) del processo.

Consideriamo una foresta idealizzata formata da una matrice rettangolare di alberi. Ciòsignifica che ogni punto (i,j) della matrice corrisponde a un albero. Ciascun albero (a partequelli sui bordi della matrice) ha quattro vicini. I vicini di (i,j) sono

(i + 1, j), (i - 1, j), (i, j + 1) e (i, j - 1).

In ogni istante di tempo, ciascun albero può trovarsi in tre stati diversi: sano, in fiamme obruciato. Il tempo è considerato discreto è l'andamento del processo è regolato dalleseguenti leggi:

Una volta bruciato un albero resta tale.●

Se un albero è sano al tempo t e si trova direttamente sopra, sotto, a sinistra o adestra di un albero in fiamme al tempo t, prenderà fuoco al tempo t + 1indipendentemente, con rispettive probabilità pu, pd, pr, e pl.

Gli alberi sani al tempo t prendono fuoco al tempo t + 1 indipendentemente l'unodall'altro.

1. Mostra che, per esempio, se un albero sano si trova sopra e a destra di alberi chesono in fiamme al tempo t (ma gli altri due vicini sono sani), allora prenderà fuoco altempo t + 1 con probabilità

pu + pr - pupr.

Le probabilità diverse a seconda della direzione servono per modellare effetti come ilvento o il terreno.

2. Le assunzioni semplificatrici principali sono la matrice perfetta di alberi, il tempodiscreto, e il fatto che le fiamme si propaghino solo tra vicini. Discuti la validità di taliassunzioni nel caso di un incendio di una foresta reale.

Il processo dell'incendio

http://www.ds.unifi.it/~stefanin/VL/VL_IT/particles/particles1.html (1 di 3) [22/11/2001 17.59.14]

Page 553: Laboratorio virtuale di probabilità e statistica

3. Nell'esperimento dell'incendio, seleziona la foresta 100 per 50 e dai fuoco a unalbero nel centro. Esegui la simulazione e osserva se le fiamme si propagano, la formadella regione bruciata e il numero e la dimensione delle isole di alberi sani. Ripetil'esperimento con diverse probabilità di diffusione dell'incendio. Riesci a trarre delleconclusioni generali?

Foresta isotropica

Supponiamo ora di avere una foresta infinita con un singolo tipo di alberi sani, per i qualile probabilità delle diverse direzioni sono le stesse,

pu = pd = pr = pl = p.

In questo caso si parla di foresta isotropica. Ci sono alcuni risultati teorici notirelativamente alle foreste isotropiche:

Il valore critico di p è 1 / 2. Ciò significa che, partendo da un insieme numerabile dialberi in fiamme, l'incendio si spegnerà con probabilità 1 se p < 1 / 2. D'altra parte,partendo con almeno un albero in fiamme, c'è una probabilità positiva chel'incendio non si spenga se p > 1 / 2.

1.

Inoltre, se l'incendio non si spegne, partendo con un signolo albero in fiamme,l'insieme di alberi bruciati ha forma asintotica a palla se p è prossimo a 1 / 2 e arombo se p è vicino a 1.

2.

Il fatto che la forma asintotica sia a rombo per p elevato è dovuto alla struttura diprossimità della matrice (pensa a cosa succede per p = 1).

4. Nell'esperimento dell'incendio, seleziona la foresta 500 per 250 e dai fuoco a unalbero nel centro. Esegui la simulazione con probabilità costante p = 0.45 finchél'incendio non si spegne o raggiunge i limiti della foresta. Ripeti per p = 0.5, p = 0.6, p =0.7, p = 0.8 e p = 0.9. In ciascun caso, osserva frequenza e dimensione delle isole di alberisani. Osserva la forma asintotica della regione bruciata. Disegna il numero di alberi infiamme in funzione di t.

I risultati sul comportamento critico e sulla forma asintotica sono tipici di tutti i sistemi diparticelle interagenti.

Un modello di incendio unidimensionale

5. Nell'esperimento dell'incendio, seleziona la foresta 100 per 50. Poni pu = pd = 0 edai fuoco a un albero. Esegui la simulazione con diversi valori delle probabilità di sinistrae di destra. Puoi formulare delle conclusioni generali? Osserva che in questo caso hai difatto una foresta unidimensionale.

Consideriamo ora una foresta ininita e unidimensionale, con un singolo tipo di alberosano e un singolo albero in fiamme all'inizio. Sia L il numero di alberi a sinistra di quelloiniziale che bruceranno e R il numero di alberi a destra di quello iniziale che bruceranno(l'albero inziale è compreso).

Il processo dell'incendio

http://www.ds.unifi.it/~stefanin/VL/VL_IT/particles/particles1.html (2 di 3) [22/11/2001 17.59.14]

Page 554: Laboratorio virtuale di probabilità e statistica

6. Prova che R e L sono variabili casuali indipendenti e con distribuzione geometricacon parametri rispettivamente pr e 1 - pl.

Se pl < 1, allora per l'esercizio 2,

P(L = k) = (1 - pl)plk - 1 per k = 1, 2, ...

e in particolare, L è finito con probabilità 1. Similmente, se pr < 1 allora

P(R = k) = (1 - pr)prk - 1 per k = 1, 2, ...

e in particolare, R è finito con probabilità 1. Ovviamente, d'altro canto, L è infinito conprobabilità 1 se pl =1, e R è infinito con probabilità 1 se pr = 1. In ciascuno di questi casil'incendio non si spegne mai.

I risultati per la foresta unidimensionale sono quindi analoghi a quelli per la forestabidimensionale: il valore critico per ciascun parametro è 1, e la forma della regionebruciata è sempre un intervallo.

Altri esperimenti

7. Considera una foresta con pd = pl = 0, pu = pr = p. Nell'esperimento dell'incendio,seleziona la foresta 500 per 250 e dai fuoco a un albero nel centro. Simula per vari valoridi p, e prova a determinare euristicamente il valore critico approssimato per p. Che puoidire sulla forma asintotica?

8. Considera una foresta con pd = 0, pu = pl = pr = p. Nell'esperimento dell'incendio,seleziona la foresta 500 per 250 e dai fuoco a un albero nel centro. Simula per vari valoridi p, e prova a determinare euristicamente il valore critico approssimato per p. Che puoidire sulla forma asintotica?

9. Considera una foresta con pl = 0, pr = 1, pd = p, pu = 0. Quindi l'incendio si propagasicuramente a destra e può propagarsi verso il basso, ma non a sinistra né verso l'alto.Nell'esperimento dell'incendio, seleziona la foresta 500 per 250 e dai fuoco a un albero inalto a sinistra. Simula qualche replicazione e prova a descrivere la parte superiore dellaregione bruciata in termini del processo di prove Bernoulliane.

Laboratorio virtuale > Sistemi di particelle interagenti > [1] 2 3Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Il processo dell'incendio

http://www.ds.unifi.it/~stefanin/VL/VL_IT/particles/particles1.html (3 di 3) [22/11/2001 17.59.14]

Page 555: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Sistemi di particelle interagenti > 1 [2] 3

2. Il processo degli elettori

Modellazione

Introduciamo un insieme di posizioni, dette elettori, messe in una matrice rettangolare mper n:

V = {0, 1, ..., m - 1} × {0, 1, ..., n - 1}.

Ciascun elemento di V ha quattro vicini; i vicini di (i, j) sono

(i + 1, j), (i - 1, j), (i, j + 1), (i, j - 1)

dove le operazioni aritmetiche nella prima coordinata sono interpretate modulo m: (m - 1)+ 1 = 0, 0 - 1 = m - 1 e quelle della seconda modulo n: (n - 1) + 1 = 0, 0 - 1 = n - 1. Conquesta struttura, il nostro insieme di posizioni è, dal punto di vista topologico, un toro,ovvero una superficie a forma di ciambella. Puoi immaginare di costruire un toro partendoda un rettangolo, collegando due lati opposti a formare un cilindro e poi attaccando traloro le basi del cilindro.

Ciascuna posizione, in ciascun istante di tempo, dev'essere in uno stato appartenente a uninsieme finito S. Gli elementi dello spazio degli stati S possono essere interpretati comeopinioni possibili di un gruppo di elettori, ma anche come colori.

Il tempo è discreto, e la dinamica del processo è la seguente: per ciascuna unità di tempo,

Si seleziona a caso una posizione (ciascuna ha uguale probabilità di essereselezionata).

1.

Si seleziona a caso una posizione vicina alla precedente (ciascuna delle 4 ha ugualeprobabilità di essere selezionata).

2.

Lo stato (colore) della posizione selezionata viene posto uguale a quello del vicinoselezionato.

3.

Inizialmente a ciascuna posizione, indipendentemente dalle altre, viene assegnato unostato selezionato casualmente; si ha quindi una configurazione iniziale casuale uniforme.

1. Esegui il processo degli elettori 5 per 10 per 100 unità di tempo, aggiornando ognivolta. Assicurati di aver capito il funzionamento del processo.

Siamo interessati principalmente al comportamento asintotico del processo. In particolare,si raggiungerà prima o poi la concordanza (tutte le posizioni dello stesso colore) o ilprocesso continuerà all'infinito con più di due colori?

2. Esegui il processo degli elettori 10000 volte, aggiornando ogni 100. Osserva ilcomportamento asintotico.

Il risultato teorico più rilevante è che il processo è destinato a raggiungere, prima o poi, la

Il processo degli elettori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/particles/particles2.html (1 di 2) [22/11/2001 17.59.17]

Page 556: Laboratorio virtuale di probabilità e statistica

concordanza, cioè tutte le posizioni diventeranno dello stesso colore.

3. Nel processo degli elettori, seleziona la matrice 10 per 5 e fai fermare il processoquando uno dei colori scompare. Continua finché tutte le posizioni sono dello stessocolore. Registra ogni volta che un colore scompare.

4. Nel processo degli elettori, seleziona la matrice 20 per 10 e fai fermare il processoquando uno dei colori scompare. Continua finché tutte le posizioni sono dello stessocolore. Registra ogni volta che un colore scompare.

4. Nel processo degli elettori, seleziona la matrice 50 per 25 e fai fermare il processoquando uno dei colori scompare. Continua finché tutte le posizioni sono dello stessocolore. Registra ogni volta che un colore scompare (ti ci vorrà un bel po' di tempo!).

Laboratorio virtuale > Sistemi di particelle interagenti > 1 [2] 3Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Il processo degli elettori

http://www.ds.unifi.it/~stefanin/VL/VL_IT/particles/particles2.html (2 di 2) [22/11/2001 17.59.17]

Page 557: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Sistemi di particelle interagenti > 1 2 [3]

3. Note conclusive

Libri

Un buon libro raguonevolmente semplice sulla percolazione è Percolation, diGeoffrey Grimmett.

Per una trattazione più concisa, vedi Lecture Notes on Particle Systems andPercolation, di Richard Durrett.

Una trattazione più formale, di profilo matematico molto elevato, è InteractingParticle Systems, di Thomas Liggett.

Per studiare incendi reali e vedere qualche modello di incendio usato nella realtàpuoi vedere Young Men and Fire di Norman Maclean

Siti web

Il sito più completo su sistemi di particelle interagenti e automi cellulari èPrimordial Soup Kitchen.

Laboratorio virtuale > Sistemi di particelle interagenti > 1 2 [3]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Note conclusive

http://www.ds.unifi.it/~stefanin/VL/VL_IT/particles/particles3.html [22/11/2001 17.59.19]

Page 558: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Stima puntuale > 1 [2] 3 4 5 6

2. Metodo dei momenti

Il metodo

Supponiamo di avere un esperimento casuale semplice con una variabile casuale Xosservabile e a valori reali. La distribuzione di X ha k parameri ignoti, oequivalentemente, vettore di parametri

a = (a1, a2, ..., ak)

che assume valori nello spazio parametrico A Rk. Al solito, ripetiamo l'esperimento nvolte per generare un campione casuale di dimensione n dalla distribuzione di X.

(X1, X2, ..., Xn).

Pertanto, X1, X2, ..., Xn sono variabili casuali indipendenti, ciascuna distribuita come X.

Il metodo dei momenti è una tecnica di costruzione di stimatori dei parametri basatasull'uguagliare i momenti empirici coi momenti teorici della corrispondente distribuzione.Sia

µi(a) = E(X i | a)

l'i-esimo momento di X centrato su 0. Nota che stiamo sottolineando la dipendenza diquesti momenti dal vettore dei parametri a. Nota inoltre che µ1(a) è semplicemente lamedia di X, che di solito indichiamo con µ. Sia poi

Mi(X) = (X1i + X2

i + ··· + Xni) / n

l'i-esimo momento empirico. Osserva che stiamo sottolineando la dipendenza deimomenti empirici dal campione X. Nota inoltre che M1(X) è semplicemente la mediacampionaria, che di solito indichiamo con Mn.

Per costruire stimatori W1, W2, ..., Wk dei parametri ignoti a1, a2, ..., ak, cerchiamo dirisolvere il sistema di equazioni simultanee

µ1(W1, W2, ..., Wk) = M1(X1, X2, ..., Xn)●

µ2(W1, W2, ..., Wk) = M2(X1, X2, ..., Xn)●

···●

µk(W1, W2, ..., Wk) = Mk(X1, X2, ..., Xn)●

per W1, W2, ..., Wk rispetto a X1, X2, ..., Xn. Osserva che abbiamo k equazioni con kincognite, per cui si può sperare che il sistema possa essere risolto.

Metodo dei momenti

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point2.html (1 di 3) [22/11/2001 17.59.24]

Page 559: Laboratorio virtuale di probabilità e statistica

Stime di media e varianza

1. Supponi che (X1, X2, ..., Xn) sia un campione di dimensione n da una distribuzione

con media µ e varianza d2 ignote. Mostra che gli stimatori per µ e d2 ricavati col metododei momenti sono rispettivamente

Mn = (1 / n) j = 1, ..., n Xj.1.

Tn2 = (1 / n) j = 1, ..., n (Xj - Mn)22.

Osserva che Mn è semplicemente la media campionaria, ma Tn2= [(n - 1) / n] Sn

2 dove

Sn2 è la varianza campionaria. Nel seguito di questo paragrafo, confronteremo gli

stimatori Sn2 e Tn

2.

2. Prova che bias(Tn2) = -d2 / n.

Pertanto Tn2 è distorta verso il basso, e quindi tende a sottostimare d2.

3. Dimostra Tn2 è asintoticamente corretto.

4. Mostra che

MSE(Tn2) = [(n - 1)2 / n3][d4 - (n - 3)d4 / (n - 1)] + d4 / n2.

5. Mostra che l'efficienza relativa asintotica di Tn2 rispetto a Sn

2 è 1.

6. Supponi di campionare da una distribuzione normale. Dimostra che, in questo caso,

MSE(Tn2) = (2n - 1)d4 / n2.1.

MSE(Sn2) = 2d4 / (n - 1).2.

MSE(Tn2) < MSE(Sn

2) per n = 2, 3, ...3.

Pertanto, Sn2 e Tn

2 sono multipli l'uno dell'altro; Sn2 è corretto ma Tn

2 ha errorequadratico medio minore.

7. Replica la stima della distribuzione normale 1000 volte aggiornando ogni 10, perdiversi valori dei parametri. Confronta la distorsione empirica e l'errore quadratico mediodi Sn

2 e di Tn2 coi loro valori teorici. Qual è lo stimatore migliore in termini di

distorsione? Quale invece in termini di errore quadratico medio?

Ci sono diverse famiglie di distribuzioni a un parametro in cui tale parametro rappresentala media, tra queste la distribuzione di Bernoulli con parametro p e la distribuzione diPoisson con parametro µ. In queste famiglie, lo stimatore ricavato col metodo deimomenti è M, ovvero la media campionaria. Similmente, i parametri della distribuzionenormale sono µ e d2, per cui gli stimatori del metodo dei momenti sono M e Tn

2.

Metodo dei momenti

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point2.html (2 di 3) [22/11/2001 17.59.24]

Page 560: Laboratorio virtuale di probabilità e statistica

Esercizi aggiuntivi

8. Supponi che (X1, X2, ..., Xn) sia un campione casuale estratto da una distribuzionegamma con parametro di forma k e parametro di scala b. Mostra che gli stimatori ricavaticol metodo dei momenti per k e b valgono rispettivamente

U = Mn2/ Tn

2.1.

V = Tn2/ Mn .2.

9. Replica la stima della distribuzione gamma 1000 volte, aggiornando ogni 10, perdiversi valori del parametro di forma e di scala. Registra, in ciascun caso, la distorsione el'errore quadratico medio.

10. Supponi (X1, X2, ..., Xn) sia un campione casuale estratto da una distribuzione betacon parametri a e 1. Mostra che lo stimatore ricavato col metodo dei momenti per a è Un =Mn / (1 - Mn ).

11. Replica la stima della distribuzione gamma 1000 volte, aggiornando ogni 10, perdiversi valori di a. Registra, in ciascun caso, la distorsione e l'errore quadratico medio edisegna i grafici di distorsione e MSE in funzione di a.

12. Supponi che (X1, X2, ..., Xn) sia un campione casuale estratto da una distribuzionedi Pareto con parametro di forma a > 1. Mostra che lo stimatore ricavato col metodo deimomenti per a è Un = Mn / (Mn - 1).

Laboratorio virtuale > Stima puntuale > 1 [2] 3 4 5 6Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Metodo dei momenti

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point2.html (3 di 3) [22/11/2001 17.59.24]

Page 561: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Stima puntuale > 1 2 3 [4] 5 6

4. Stimatori Bayesiani

Il metodo

Supponiamo di nuovo di avere una variabile casuale osservabile X, per un certoesperimento, che assuma valori in un insieme S. Supponiamo inoltre che la distribuzionedi X dipenda da un parametro ignoto a, suscettibile di assumere valori in uno spazioparametrico A. Come in precedenza, indicheremo con f(x | a) la funzione di densità di Xin x.

Nell'analisi Bayesiana, si tratta il vettore di parametri a come una variabile casuale conuna certa funzione di densità h(a), con a appartenente ad A. La distribuzionecorrisponendente è detta distribuzione a priori di a e ha l'obiettivo di raccogliere leinformazioni di cui si dispone (se ce ne sono) sul vettore dei parametri, prima diraccogliere i dati.

Si utilizza poi il teorema di Bayes, che prende il nome da Thomas Bayes, per calcolare lafunzione di densità condizionata di a dato X = x appartenente a S:

h(a | x) = f(x | a)h(a) / g(x), per a appartenente ad A e x appartenente a S

dove g è la funzione di densità (marginale) di X. Ricorda che per un dato x appartenente aS, g(x) può essere ottenuta integrando (nel caso continuo) o sommando (nel caso discreto)f(x | a)h(a) per gli a appartenenti ad A. Equivalentemente, g(x) è una costante dinormalizzazione per f(x | a)h(a) come funzione di a. La distribuzione condizionata di adato X = x è detta distribuzione a posteriori, ed è una distribuzione aggiornata utilizzandol'informazione contenuta nei dati.

Se a è un parametro reale, il valore atteso condizionato E(a | X) è lo stimatore Bayesianodi a. Ricorda che E(a | X) è funzione di X e, tra tutte le funzioni di X, è la più vicina ad ain media quadratica.

Famiglie coniugate

In molti casi speciali, possiamo trovare una famiglia parametrica di distribuzioni con laseguente proprietà: se la distribuzione a priori di a appartiene alla famiglia, allora così èanche per la distribuzione a posteriori di a dato X = x. La famiglia si dice coniugata alladistribuzione di X. Le famiglie coniugate sono molto utili dal punto di vistacomputazionale, poiché si può spesso calcolare la distribuzione a posteriori attraverso unasemplice formula che coinvolge i parametri della famiglia senza dover utilizzaredirettamente il teorema di Bayes.

La distribuzione di Bernoulli

Supponiamo di avere un moneta non bilanciata con probabilità che esca testa p ignota.

Stimatori Bayesiani

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point4.html (1 di 5) [22/11/2001 17.59.33]

Page 562: Laboratorio virtuale di probabilità e statistica

Lanciamo la moneta n volte e registriamo il vettore degli esiti I = (I1, I2, ..., In). Per undato p, queste variabili formano un campione casuale estratto dalla distribuzione diBernoulli a parametro p. Sia Xn = I1 + I2 + ··· + In il numero di teste

Supponiamo ora di assegnare a p distribuzione a priori beta con parametri a e b, dove a eb si scelgono sulla base delle nostre informazioni sulla moneta. Per esempio, se nonsappiamo nulla, possiamo porre a = b = 1, cosicché p abbia distribuzione a priori unfiormesu (0, 1). D'altra parte, se crediamo che la moneta sia sbilanciata verso testa con pall'incirca 2 / 3, possiamo porre a = 4 e b = 2 (cosicché il valore atteso della distribuzionea priori risulti 2/3).

1. Prova che la distribuzione a priori di p dato I è una beta a parametri a + Xn, b + (n -Xn).

L'esercizio 1 prova che la distribuzione beta è coniugata alla distribuzione di Bernoulli.Nota inoltre che nella distribuzione a posteriori, il primo parametro della beta èincrementato dal numero di teste, mentre il secondo dal numero di croci.

2. Nell' esperimento della moneta non bilanciata, poni n = 10, p = 0.7, e a = b = 1(distribuzione a priori uniforme). Simula 100 replicazioni e osserva la forma e laposizione della densità a posteriori dopo ogni replicazione.

3. Prova che lo stimatore Bayesiano di p è Un = (Xn + a) / (n + a + b).

4. Nell' esperimento della moneta non bilanciata, poni n = 20, p = 0.3, e a = 4 e b = 2.Simula 100 replicazioni e osserva la stima di p e la forma e la posizione della densità aposteriori dopo ogni replicazione.

5. Prova che bias(Un | p) = (a - pa - pb) / (n + a + b) e quindi Un è asintoticamentecorretto.

Osserva che nell'esercizio 3 non possiamo scegliere a e b per avere Un corretto, poichétale scelta coinvolgerebbe in valore vero di p, che non è noto.

6. Nell' esperimento della moneta non bilanciata, poni n = 20, p = 0.8, a = 2 e b = 6.Simula 1000 replicazioni aggiornando ogni 10. Osserva la stima di p e la forma e laposizione della funzione di densità a posteriori ad ogni aggiornamento. Osserva laconvergenza della distorsione empirica a quella teorica.

7. Dimostra che l'errore quadratico medio di Un è quello che segue, e che quindi Un èconsistente:

MSE(Un | p) = [p(n - 2a2 - 2ab) + p2(-n + a2 + b2 + 2ab) + a2] / (n + a + b)2.

8. Nell' esperimento della moneta non bilanciata, poni n = 10, p = 0.7, a = 1 e b = 1.Simula 1000 replicazioni aggiornando ogni 10. Osserva la stima di p e la forma e laposizione della funzione di densità a posteriori ad ogni aggiornamento. Osserva la

Stimatori Bayesiani

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point4.html (2 di 5) [22/11/2001 17.59.33]

Page 563: Laboratorio virtuale di probabilità e statistica

convergenza dell'errore quadratico medio empirico a quello teorico.

È interessante notare che possiamo scegliere a e b in modo che Un abbia errore quadraticomedio indipendente da p:

9. Prova che se a = b = n1/2 / 2 allora MSE(Un | p) = n / [4(n + n1/2)2] per ogni p.

10. Nell' esperimento della moneta non bilanciata, poni n = 36 e a = b = 3. Modifica pe osserva che l'errore quadratico medio non cambia. Con p = 0.8 simula 1000 replicazioni,aggiornando ogni 10. Osserva la stima di p e la forma e la posizione della funzione didensità a posteriori ad ogni aggiornamento. Osserva la convergenza della distorsione edell'errore quadratico medio empirici ai loro valori teorici.

Ricorda che la media campionaria Mn = Xn / n (la proporzione di teste) è sia lo stimatoredel metodo dei momenti che quello di massima verosimiglianza per p, ed ha errorequadratico medio MSE(Mn | p) = p(1 - p) / n.

11. Disegna i grafici di MSE(Un | p) dell'esercizio 6 e MSE(Mn | p), in funzione di p,sullo stesso sistema di assi.

Supponiamo ora che la moneta sia bilanciata o a due teste. Diamo a p la distribuzione apriori che segue, dove abbiamo scelto a appartenente a (0, 1), in modo da rispecchiare lenostre conoscenze a priori sulla probabilità che esca testa.

h(1) = a, h(1 / 2) = 1 - a.

12. Prova che la distribuzione a posteriori di p dato I è la seguente. Interpreta i risultati.

h(1 | I) = a / [a + (1 - a) (1 / 2)n] se Xn = n.1.

h(1 | I) = 0 se Yn < n.2.

h(1 / 2 | I) = 1 - h(1 | I).3.

13. Prova che lo stimatore Bayesiano di p è

Un = pn se Xn = n, Un = 1 / 2 se Xn < n,

dove pn = [a + (1 - a)(1 / 2)n + 1] / [a + (1 - a) (1 / 2)n].

14. Mostra che

E(Un | p = 1) = pn.1.

E(Un | p = 1 / 2) = (1 / 2)n pn + (1 / 2) [1 - (1 / 2)n].2.

Un è asintoticamente corretto.3.

15. Mostra che

MSE(Un | p = 1) = (pn - 1)2.1.

MSE(Un | p = 1 / 2) = (1 / 2)n (pn - 1 / 2)2.2.

Stimatori Bayesiani

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point4.html (3 di 5) [22/11/2001 17.59.33]

Page 564: Laboratorio virtuale di probabilità e statistica

Un è consistente3.

La distribuzione di Poisson

Supponi che X = (X1, X2, ..., Xn) sia un campione casuale di dimensione n dalladistribuzione di Poisson con parametro a. Supponi inoltre che a abbia distribuzione apriori gamma con parametro di forma k e parametro di scala b. Sia

Yn = X1 + X2 + ··· + Xn.

16. Prova che la distribuzione a posteriori di a dato X è una gamma con parametro diforma k + Yn e parametro di scala b / (nb + 1).

Ne segue che la distribuzione gamma è coniugata alla distribuzione di Poisson.

17. Prova che lo stimatore Bayesiano di a è Vn = (k + Yn)b / (nb + 1).

18. Dimostra che bias(Vn | µ) = (kb - a) / (nb + 1) e quindi Vn è asintoticamentecorretto.

Nota che, anche in questo caso, non possiamo scegliere k e b in modo da avere Vncorretto.

19. Prova che l'errore quadratico medio di Vn è il seguente, e quindi Vn è consistente:

MSE(Vn | a) = [(nb2 - 2kb)a + a2 + k2b2) / [(nb + 1)2].

La distribuzione normale

Supponi che X = (X1, X2, ..., Xn) sia un campione casuale di dimensione n da una

distribuzione normale con media µ e varianza d2, dove µ è ignoto, mentre d2 è noto.Supponi inoltre che µ abbia distribuzione a priori normale con media a e varianza b2,ovviamente entrambi noti. Sia

Yn = (X1 + X2 + ··· + Xn).

20. Prova che la distribuzione a posteriori di µ dato X è normale con media e varianza:

E(µ | X) = (Ynb2 + ad2) / (d2 + nb2)1.

var(µ | X) = d2b2 / (d2 + nb2)2.

Pertanto, la distribuzione normale è coniugata alla normale con media ignota e varianzanota. Segue inoltre che lo stimatore Bayesiano di µ è

Un = (Ynb2 + ad2) / (d2 + nb2).

21. Dimostra che bias(Un | µ) = d2(a - µ) / (d2 + nb2) e quindi Un è asintoticamentecorretto.

Stimatori Bayesiani

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point4.html (4 di 5) [22/11/2001 17.59.33]

Page 565: Laboratorio virtuale di probabilità e statistica

22. Dimostra che MSE(Un | µ) = [nd2b4 + d4(a - µ)2] / (d2 + nb2)2 e quindi Un èconsistente.

Laboratorio virtuale > Stima puntuale > 1 2 3 [4] 5 6Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Stimatori Bayesiani

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point4.html (5 di 5) [22/11/2001 17.59.33]

Page 566: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Stima puntuale > 1 2 3 4 [5] 6

5. Migliori stimatori corretti

Il modello di base

Consideriamo, di nuovo, un semplice modello statistico nel quale abbiamo unesperimento casuale che si rappresenta tramite una variabile casuale X che assume valoriin S. Di nuovo, l'esperimento consiste nell'estrarre n elementi da una popolazione eregistrare le misurazioni su ogni osservazione. In questo caso, X ha forma

X = (X1, X2, ..., Xn).

dove Xi è il vettore delle misurazioni sull'i-esimo elemento.

Supponi che a sia un parametro reale della distribuzione di X, che assume valori in unospazio parametrico A R. Sia f(· | a) la funzione di densità di probabilità di X per a A. Nota che valore atteso, varianza, e covarianza dipendono da a, anche se trascureremociò per evitare una notazione troppo complessa. Sia infine Da l'operatore di derivazionerispetto ad a.

Supponi che b = b(a) sia il parametro di interesse. In questo paragrafo considereremo ilproblema di trovare il migliore stimatore per b(a) in una classe di stimatori corretti.Ricorda che se U è uno stimatore corretto di b(a), allora l'errore quadratico mediocoincide con var(U). Pertanto, se U e V sono stiamtori corretti di b(a) e

var(U ) var(V) per ogni a A.

Pertanto U è uniformemente migliore di V. D'altra parte, può darsi che U abbia varianzaminore per certi valori di a mentre V per altri. Se U è unfiormemente migliore di ognialtro stimatore corretto di b(a), allora U è detto Uniformly Minimum Variance UnbiasedEstimator (UMVUE).

La disuguaglianza di Cramer-Rao

In questo paragrafo mostreremo che, sotto condizioni non stringenti, esiste un limiteinferiore per la varianza di uno stimatore corretto per un parametro b(a). Se possiamoquindi trovare uno stimatore che raggiunga questo limite inferiore per ogni a A, alloratale stimatore dev'essere UMVUE.

L'assunzione che dobbiamo fare è che per ogni funzione h, applicazione di S in R conE[|h(X)|] < ,

Da E[h(X)] = E{h(X) Da ln[f(X | a)]}.

1. Dimostra che questa condizione equivale all'assunzione che l'operatore diderivazione Da possa essere scambiato con l'operatore valore atteso E.

Migliori stimatori corretti

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point5.html (1 di 5) [22/11/2001 17.59.40]

Page 567: Laboratorio virtuale di probabilità e statistica

In termini generali, l'assunzione è soddisfatta se f(x | a) è derivabile rispetto ad a, conderivata continua rispetto a x e ad a, e se il supporto {x: f(x | a) > 0} non dipende da a.

2. Dimostra che E{Da ln[f(X | a)]} = 0. Suggerimento: Usa la condizione fondamentalecon h(x) = 1 per x appartenente S.

Poniamo ora che h sia una funzione che soddisfa l'assunzione.

3. Dimostra che cov{h(X), Da ln[f(X | a)]} = Da E[h(X)]. Suggerimento: Nota in primoluogo che la covarianza è semplicemente il valore atteso del prodotto delle variabili,poiché la seconda variabile ha media 0 (vedi l'esercizio precedente). Usa poi lacondizione.

4. Dimostra che var{Da ln[f(X | a)]} = E{[Da ln[f(X | a)]]2}. Suggerimento: La varibileha media 0.

5. Usa infine la disuguaglianza di Cauchy-Schwartz per trovare il limite inferiore diCramer-Rao:

var[h(X)] {Da E[h(X)]}2 / E{[Da ln[f(X | a)]]2}.

6. Supponi che X = (X1, X2, ..., Xn) sia un campione casuale di dimensione n dalladistribuzione di una variabile casuale X con funzione di densità g. Dimostra che

var[h(X)] {Da E[h(X)]}2 / n E{[Da ln[g(X | a)]]2}.

Suggerimento: La densità congiunta è il prodotto delle densità marginali. Usa le proprietàdei logaritmi, l'indipendenza e l'esercizio 2.

Supponi ora che b(a) sia il parametro di interesse e h(X) sia uno stimatore corretto di b(a).

7. Usa la disuguaglianza di Cramer-Rao per mostrare che

var[h(X)] {Da b(a)}2 / E{[Da ln[f(X | a)]]2}.

8. Mostra che l'uguaglianza in 7 vale se e solo se

h(x) - b(a) = u(a)Da ln[f(x | a)] per ogni x

per qualche funzione u(a). Suggerimento: Ricorda che l'uguaglianza, nella disuguaglianzadi Cauchy-Schwartz, si ha se e solo se le variabili casuali sono trasformazioni lineari l'unadell'altra. Richiama inoltre che Da ln[f(X | a)] ha media 0.

9. Supponi che X = (X1, X2, ..., Xn) sia un campione casuale di dimensione n dalladistribuzione di una variabile casuale X con funzione di densità g. Mostra che

var[h(X)] {Da b(a)}2 / n E{[Da ln[g(X | a)]]2}.

Migliori stimatori corretti

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point5.html (2 di 5) [22/11/2001 17.59.40]

Page 568: Laboratorio virtuale di probabilità e statistica

La quantità E{[Da ln[f(X | a)]]2} che si incontra al denominatore dei limiti inferiori negliesercizi 5 e 7 è detta Informazione di Fisher di X, in onore di Sir Ronald Fisher.

Gli esercizi seguenti riportano versioni alternative delle espressioni degli esercizi 7 e 8,spesso più utili a fini computazionali.

10. Mostra che se le derivate esistono e se sono possibili gli scambi tra derivata evalore atteso, allora

E{[Da ln[g(X | a)]]2} = -E{Da2 ln[g(X | a)]}.

La distribuzione di Bernoulli

Supponi che (I1, I2, ..., In) sia un campione casuale di dimensione n dalla distribuzione diBernoulli con parametro p. L'assunzione fondamentale è soddisfatta.

11. Prova che p(1 - p) / n è il limite inferiore di Cramer-Rao per la varianza deglistimatori corretti di p.

12. Prova che la media campionaria (o, equivalentemente, la proporzione) Mnraggiunge il limite inferiore di Cramer-Rao ed è quindi un UMVUE di p.

La distribuzione di Poisson

Supponi che (X1, X2, ..., Xn) sia un campione casuale di dimensione n della distribuzionedi Poisson con parametro a. L'assunzione fondamentale è soddisfatta.

13. Prova che a / n è il limite inferiore di Cramer-Rao per la varianza degli stimatoricorretti di a.

14. Mostra che la media campionaria Mn raggiunge il limite inferiore di Cramer-Raoed è pertanto UMVUE di a.

La distribuzione normale

Supponi che (X1, X2, ..., Xn) sia un campione di dimensione n della distribuzione normale

con media µ e varianza d2. L'assunzione fondamentale è soddisfatta sia per µ che per d2.Ricorda inoltre che E[(X - µ)4] = 3d4.

15. Prova che d2 / n è il limite inferiore per la varianza degli stimatori corretti di µ.

16. Prova che la media campionaria Mn raggiunge il limite di Cramer-Rao ed èpertanto UMVUE di µ.

17. Prova che 2d4 / n è il limite inferiore per la varianza degli stimatori corretti di d2.

18. Prova che la varianza campionaria S2 ha varianza 2d4 / (n - 1) e quindi non

Migliori stimatori corretti

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point5.html (3 di 5) [22/11/2001 17.59.40]

Page 569: Laboratorio virtuale di probabilità e statistica

raggiunge il limite di Cramer-Rao presentato nell'esercizio 17.

19. Prova che, se µ è noto, allora la statistica sottoindicata raggiunge il limite inferioredi Cramer-Rao ed è pertanto UMVUE di d2:

W2 = (1 / n) i = 1, ..., n (Xi - µ)2.

20. Dimostra che, se µ è ignota, nessuno stimatore di d2 raggiunge il limite inferiore diCramer-Rao.

La distribuzione gamma

Supponi che (X1, X2, ..., Xn) sia un campione casuale di dimensione n della distribuzionegamma con parametro di scala b e parametro di forma k. L'assunzione fondamentale èsoddisfatta per b.

21. Prova che b2 / nk è il limite inferiore per la varianza degli stimatori corretti di b.

22. Dimostra che, se k è noto, allora Mn / k raggiunge il limite inferiore di Cramer-Raoed è pertanto UMVUE di b.

La distribuzione uniforme

Supponi che (X1, X2, ..., Xn) sia un campione casuale di dimensione n della distribuzioneuniforme su (0, a).

23. Prova che l'assunzione fondamentale non è soddisfatta.

24. Mostra che il limite inferiore per la varianza degli stimatori corretti di a è a2 / n.

25. Prova (o richiama) che [(n + 1) / n]X(n) è corretto ed ha varianza a2 / n(n + 2),inferiore al limite di Cramer-Rao dell'esercizio precedente.

La ragione per cui l'assunzione fondamentale non è soddisfatta è che il supporto {x: f(x |a) > 0} dipende da a.

Migliori stimatori lineari corretti

Consideriamo ora un problema più specifico, che riguarda comunque l'argomento diquesto paragrafo. Supponiamo che X1, X2, ..., Xn siano variabili casuali osservabili, avalori reali, inocrrelate e con lo stesso valore atteso µ, ma potenzialmente diversedeviazioni standard. Sia di = sd(Xi) per i = 1, 2, ..., n. Consideremo solo stimatori di µ chesiano funzioni lineari dei valori osservati:

Y = i = 1, ..., n ciXi dove c1, ..., cn devono essere determinati.

Migliori stimatori corretti

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point5.html (4 di 5) [22/11/2001 17.59.40]

Page 570: Laboratorio virtuale di probabilità e statistica

26. Dimostra che Y è corretto se e solo se i = 1, ..., n ci = 1.

27. Calcola la varianza di Y in termini di c1, c2, ..., cn e d1, d2, ..., dn.

28. Usa i moltiplicatori di Lagrange per provare che la varianza è minima, sotto ilvincolo di correttezza, se

cj = (1 / dj2) / i = 1, ..., n (1 / di

2) for j = 1, 2, ..., n.

Questo esercizio mostra come costruire il miglior stimatore lineare corretto (BLUE) di µ,assumendo che d1, d2, ..., dn siano noti.

Supponiamo ora che di = d per ogni i, cosicché le variabili abbiano la stessa deviazionestandard. In particolare, ciò si verifica quando le variabili formano un campione casuale didimensione n da una distribuzione con media µ e deviazione standard d.

29. Mostra che in questo caso la varianza è minima quando ci = 1 / n per ogni i, equindi Y è la media campionaria.

Questo esercizio ha mostrato che la media campionaria Mn è il miglior stimatore linearecorretto di µ quando le deviazioni standard sono costanti e che, inoltre, non è necessarioconoscere il loro valore.

Laboratorio virtuale > Stima puntuale > 1 2 3 4 [5] 6Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Migliori stimatori corretti

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point5.html (5 di 5) [22/11/2001 17.59.40]

Page 571: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Stima puntuale > 1 2 3 4 5 [6]

6. Completezza, sufficienza e ancillarità

Consideriamo un modello statistico di base, con un espiremento casuale a cui è associatauna variabile casuale osservabile X a valori in S. Di nuovo, l'esperimento consistenell'estrarre n unità da una popolazione e registrarne le misure in un vettore. In questocaso, X ha forma

X = (X1, X2, ..., Xn).

dove Xi è il vettore delle misurazioni per l'i-esima unità.

Supponiamo che la distribuzione di X dipenda da un parametro a che assume valori in unospazio parametrico A. In genere, a è un vettore di parametro reali.

Statistiche sufficienti

Intuitivamente, una statistica U = h(X) è sufficiente per a se U contiene tuttal'informazione relativa ad a disponibile nell'intero vettore dei dati X. Formalmente, U èsufficiente per a se la distribuzione condizionata di X dato U non dipende da a.

Il concetto di sufficienza è collegato a quello di riduzione dei dati. Supponiamo che Xassuma valori in Rn. Se possiamo individuare una statistica sufficiente U a valori in Rj,allora possiamo ridurre il vettore X (la cui dimensione n è solitamente grande) al vettoredi statistiche U (la cui dimensione j è di solito molto minore) senza perdita diinformazione sul parametro a.

Il seguente risultato è una condizione di sufficienza equivalente a questa definizione.

1. Si abbia U = h(X) e siano f(x | a) e g(u | a) le funzioni di densità di probabilità di X eU, rispettivamente. Dimostra che U è sufficiente per a se e solo se

f(x | a) / g(h(x) | a)

è indipendente da a per ogni x appartenente a S. Suggerimento: La distribuzionecongiunta di (X, U) è concentrata sull'insieme {(x, h(x)): x S}.

2. Supponi che I1, I2, ..., In sia un campione casuale di dimensione n della distribuzionedi Bernoulli con parametro p appartenente a (0, 1). Dimostra che Xn = I1 + I2 + ··· + In èsufficiente per p.

Il risultato dell'esercizio 2 è molto seducente in termini concettuali: in una sequenza diprove Bernoulliane, tutta l'informazione relativa alla probabilità di successo p è contenutanel numero di successi Xn. L'ordine in cui si verificano successi e insuccessi non aggiungealcuna informazione.

Il teorema di fattorizzazione

Completezza, sufficienza e ancillarità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point6.html (1 di 6) [22/11/2001 17.59.50]

Page 572: Laboratorio virtuale di probabilità e statistica

La definizione di sufficienza riportata poc'anzi coglie il significato intuitivo di questoconcetto, ma può essere complessa da applicare. Dobbiamo conoscere a priori unastatistica "candidata" U, e dobbiamo poi essere in grado di trovare la distribuzionecondizionata di X dato U. Il teorema di fattorizzazione, che riportiamo nell'esercizioseguente, ci consente in molti casi di identificare una statistica sufficiente a partire dallaforma della funzione di densità di X.

3. Sia f(x | a) la funzione di densità di X. Dimostra che U = h(X) è sufficiente per a se esolo se esistono funzioni G(u | a) e r(x) tali che

f(x | a) = G[h(x) | a] r(x) per x appartenente a S e a appartenente a A.

Come la notazione stessa suggerisce, r dipende solo dal vettore dei dati x e non dalparametro a.

4. Prova che, se U e V sono statistiche equivalenti e U è sufficiente per a, allora V èsufficiente per a.

5. Supponi che la distribuzione di X sia una famiglia esponenziale a k parametri constatistica naturale h(X). Prova che h(X) è sufficiente per a.

Sulla base di questo risultato, h(X) è spesso indicata come statistica sufficiente naturaleper la famiglia esponenziale.

6. Supponi che X1, X2, ..., Xn sia un campione casuale di dimensione n della

distribuzione normale con media µ appartenente a R e varianza d2 > 0.

Prova che (X1 + X2 + ··· + Xn, X12 + X2

2 + ··· + Xn2) è sufficiente per (µ, d2),1.

Prova che (M, S2) è sufficiente per (µ, d2) dove M è la media campionaria e S2 lavarianza campionaria. Suggerimento: Usa il risultato (a) e l'equivalenza.

2.

7. Supponi che X1, X2, ..., Xn sia un campione casuale di dimensione n dalladistribuzione di Poisson con parametro a > 0. Prova che X1 + X2 + ··· + Xn è sufficienteper a dove

8. Supponi che X1, X2, ..., Xn sia un campione casuale di dimensione n distribuzionegamma con parametro di forma k > 0 e parametro di scala b > 0.

Mostra che (X1 + X2 + ··· + Xn, X1X2 ··· Xn) è sufficiente per (k, b).1.

Mostra che (M, U) è sufficiente per (k, b) dove M è la media (aritmetica)campionaria e U è la media geometrica campionaria. Suggerimento: Usa il risultato(a) e l'equivalenza.

2.

9. Supponi che X1, X2, ..., Xn sia un campione casuale estratto da una distribuzionebeta con parametri a > 0 e b > 0. Mostra che (U, V) è sufficiente per (a, b) dove

U = X1X2 ··· Xn, V = (1 - X1)(1 - X2) ··· (1 - Xn).

Completezza, sufficienza e ancillarità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point6.html (2 di 6) [22/11/2001 17.59.50]

Page 573: Laboratorio virtuale di probabilità e statistica

10. Supponiamo che X1, X2, ..., Xn sia un campione casuale estratto dalla distribuzioneuniforme sull'intervallo [0, a] dove a > 0. Mostra che X(n) (l'n-esima statistica d'ordine) èsufficiente per a.

Statistiche sufficienti minimali

Ovviamente il vettore X è sufficiente per a. Tuttavia, come abbiamo già osservato, spessoesiste una statistica U sufficiente per a ma di dimensioni più piccole, cosicché è possibileridurre effettivamente la dimensione dei dati. Chiaramente vorremmo individuare lastatistica U di minori dimensioni possibili. In molti casi, la dimensione più piccola jcoincide con la dimensione k del vettore dei parametri a. Tuttavia non è sempre così; jpuò essere più piccolo o più grande di k.

In termini più formali, supponiamo che una statistica U sia sufficiente per a. U èsufficiente minimale se U è funzione di una qualsiasi altra statistica V sufficiente per a.

Di nuovo, la definizione coglie alla perfezione il concetto di sufficienza minimale, ma è didifficile applicabilità. L'esercizio seguente presenta una condizione equivalente.

11. Sia f(x | a) la funzione di densità di X e sia U = h(X). Prova che U è sufficienteminimale per a se valgono le seguenti condizioni:

f(x | a) / f(y | a) non dipende da a se e solo se h(x) = h(y).

Suggerimento: Se V = g(X) è un'altra statistica sufficiente, usa il teorema difattorizzazione e la condizione di cui sopra per mostrare che g(x) = g(y) implica h(x) =h(y). Concludi quindi che U è funzione di V.

12. Prova che, se U e V sono statistiche equivalenti e U è sufficiente minimale per aallora V è sufficiente minimale per a.

13. Supponi che la distribuzione di X sia una famiglia esponenziale a k parametri constatistica sufficiente naturale U = h(X). Prova che U è sufficiente minimale per a.Suggerimento: Ricorda che j è il più piccolo intero per cui X è una famiglia esponenzialea j parametri.

14. Prova che le statistiche sufficienti presentate sopra per le distribuzioni di Bernoulli,di Poisson, normale, gamma e beta sono sufficienti minimali per i parametri dati.

15. Supponi che X1, X2, ..., Xn sia un campione casuale estratto dalla distribuzioneuniforme sull'intervallo [a, a + 1] dove a > 0. Dimostra che (X(1), X(n)) è sufficienteminimale per a.

Nell'ultimo esercizio, osserva che si ha un unico parametro, ma la statistica minimale è unvettore a due dimensioni.

Proprietà delle statistiche sufficienti

La sufficienza è correlata ai metodi di costruzione degli stimatori che abbiamo studiato.

Completezza, sufficienza e ancillarità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point6.html (3 di 6) [22/11/2001 17.59.50]

Page 574: Laboratorio virtuale di probabilità e statistica

16. Supponi che U sia sufficiente per a e che esista uno stimatore di massimaverosimiglianza di a. Mostra che esiste uno stimatore di massima verosimiglianza V che èfunzione di U. Suggerimento: Usa il teorema di fattorizzazione.

In particolare, supponi che V sia l'unico stimatore di massima verosimiglianza di a e cheV sia sufficiente per a. Se U è sufficiente per a, allora V è funzione di U, sulla basedell'esercizio precedente. Segue quindi che V è sufficiente minimale per a.

17. Supponi che la statistica U sia sufficiente per a e che V sia uno stimatoreBayesiano di a. Prova che V è funzione di U. Suggerimento: Usa il teorema difattorizzazione.

L'esercizio seguente riporta il teorema di Rao-Blackwell, che mostra come una statisticasufficiente possa essere utilizzata per migliorare uno stimatore corretto.

18. Supponi che U sia sufficiente per a e che V sia uno stimatore corretto delparametro reale b = b(a). Usa la sufficienza, le proprietà di valore atteso condizionato e divarianza condizionata per mostrare che

E(V | U) è una statistica valida (ovvero non dipende da a) ed è funzione di U.1.

E(V | U) è uno stimatore corretto di b.2.

var[E(V | U)] var(V) per ogni a, per cui E(V | U) è uniformemente migliore di V.3.

Statistiche complete

Supponi che U = h(X) sia una statistica. U si dice completa se

E[g(U) | a] = 0 per ogni a appartenente a A implica P[g(U) = 0 | a] = 1 per ogni aappartenente a A.

19. Mostra che, se U e V sono statistiche equivalenti e U è completa per a allora V ècompleta per a.

20. Supponi che I1, I2, ..., In sia un campione casuale di dimensione n dalladistribuzione di Bernoulli con parametro p appartenente a (0, 1). Mostra che la somma ècompleta per p:

Y = I1 + I2 + ··· + In.

Suggerimento: Osserva che Ep[g(Y)] può essere scritto come polinomio in t = p / (1 - p).Se tale polinomio vale 0 per ogni t > 0, allora i coefficienti devono valere 0.

21. Supponi che X1, X2, ..., Xn sia un campione casuale di dimensione n dalladistribuzione di Poisson con parametro a > 0. Mostra che la somma è completa per a:

Y = X1 + X2 + ··· + Xn.

Suggerimento: Osserva che Ea[g(Y)] può essere scritta come serie in a. Se la serie vale 0

Completezza, sufficienza e ancillarità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point6.html (4 di 6) [22/11/2001 17.59.50]

Page 575: Laboratorio virtuale di probabilità e statistica

per ogni a > 0, i coefficienti devono essere 0.

22. Supponi che X1, X2, ..., Xn sia un campione casuale di dimensione n estratto dauna distribuzione esponenziale con parametro di scala b > 0. Mostra che la somma ècompleta per b.

Y = X1 + X2 + ··· + Xn.

Suggerimento: Prova che Eb[g(Y)] è la trasformata di Laplace di una certa funzione . Setale trasformata è 0 per ogni b > 0, allora la funzione dev'essere identicamente 0.

Il risultato dell'esercizio precedente si può generalizzare alle famiglie esponenziali, anchese la dimostrazione è complessa. In particolare, se la distribuzione di X è una famigliaesponenziale a j parametri con vettore di statistiche sufficieni naturali U = h(X) allora U ècompleta per a (nonché sufficiente minimale per a). Questo risultato si applica a campionicasuali estratti da distribuzioni di Bernoulli, di Poisson, normale, gamma e beta.

La nozione di completezza è dipendente dallo spazio parametrico.

23. Supponi che I1, I2, I3 sia un campione casuale di dimensione 3 estratto da unadistribuzione di Bernoulli con parametro p appartenente a {1/3, 1/2}. Prova che Y = I1 +I2 + I3 non è completa per p.

L'esercizio seguente mostra l'importanza delle statistiche complete e sufficienti, ed è notocome teorema di Lehmann-Scheffe.

24. Supponi che U sia sufficiente e completa per a e che T = r(U) sia uno stimatorecorretto del parametro reale b(a). Dimostra che T è UMVUE per b(a). La dimostrazione fauso dei seguenti passi:

Supponi che V sia uno stimatore corretto di b(a). Per il teorema di Rao-Blackwell,anche E(V | U) è uno stimatore corretto di b(a) ed è uniformemente migliore di V.

1.

Poiché E(V | U) è funzione di U, usa la completezza per concludere che T = E(V |U) (quasi certamente).

2.

25. Supponi che (I1, I2, ..., In) sia un campione casuale di dimensione n estratto dalladistribuzione di Bernoulli con parametro p appartenente a (0, 1). Mostra che un UMVUEper la varianza della distribuzione p(1 - p)

è

X / (n - 1) - X2 / [n(n - 1)] dove X = I1 + I2 + ··· + In.

26. Supponi che X1, X2, ..., Xn sia un sia un campione casuale di dimensione n da una

distribuzione di Poisson con parametro a. Mostra che un UMVUE per P(X = 0) = e-a è

[(n - 1) / n]Y dove Y = X1 + X2 + ··· + Xn.

Suggerimento: Usa la funzione generatrice di probabilità di Y.

Completezza, sufficienza e ancillarità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point6.html (5 di 6) [22/11/2001 17.59.50]

Page 576: Laboratorio virtuale di probabilità e statistica

Statistiche ancillari

Supponi che V = r(X) sia una statistica. Se la distribuzione di V non dipende da a, alloraV è detta statistica ancillare per a. Pertanto, la nozione di ancillarità è complementare aquella di sufficienza (ovvero il contenere tutte le informazioni disponibili sul parametro).Il risultato del seguente teorema, dimostrato da Basu, rende la situazione più chiara.

27. Supponi che U sia completa e sufficiente per a e che V sia una statistica ancillare.Prova che U e V sono indipendenti percorrendo i seguenti passi:

Supponi che V assuma valori in T . Sia g la funzione di densità di V e sia g(· | U) ladensità condizionata di V dato U.

1.

Usa le proprietà del valore atteso condizionato per mostrare che E[g(v | U)] = g(v)per v appartenente a T.

2.

Usa la completezza per concludere che g(v | U) = g(v) quasi certamente.3.

28. Prova che, se U e V sono equivalenti e U è ancillare per a, allora anche V èancillare per a.

29. Supponi che X1, X2, ..., Xn sia un campione casuale estratto da una famiglia discala con parametro di scala b > 0. Prova che se V è funzione di X1 / Xn, X2 / Xn, ..., Xn -

1 / Xn allora V è ancillare per b.

30. Supponi che X1, X2, ..., Xn sia un campione casuale di dimensione n delladistribuzione gamma con parametro di forma k > 0 e parametro di scala b > 0. Sia M lamedia campionaria (aritmetica) e U la media campionaria geometrica. Dimostra che M /U è ancillare per b, e concludi che M e M / U sono indipendenti. Suggerimento: Usa ilrisultato dell'esercizio precedente.

Laboratorio virtuale > Stima puntuale > 1 2 3 4 5 [6]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Completezza, sufficienza e ancillarità

http://www.ds.unifi.it/~stefanin/VL/VL_IT/point/point6.html (6 di 6) [22/11/2001 17.59.50]

Page 577: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Stima intervallare > [1] 2 3 4 5 6

1. Introduzione

Il modello statistico di base

Al solito, iniziamo considerando un esperimento casuale con un certo spazio campionarioe con misura di probabilità P. Nel modello statistico di base, abbiamo una variabilecasuale osservabile X a valori in S. In generale, X può avere struttura complessa. Peresempio, se l'esperimento consiste nell'estrarre un campione di n unità da una popolazionee registare le misurazioni di interesse, allora

X = (X1, X2, ..., Xn)

dove Xi è il vettore di misurazioni per l'i-esima unità. Il caso particolare più importante siha quando X1, X2, ..., Xn, sono indipendenti e identicamente distribuite. In questo caso, siha un campione casuale di dimensione n dalla distribuzione comune.

Supponiamo inoltre che la distribuzione di X dipenda da un parametro a che assumevalori in uno spazio parametrico A. Normalmente, a è un vettore di parametri reali,cosicché A è un sottinsieme di Rk per dati k e

a = (a1, a2, ..., ak).

Insiemi di confidenza

Un insieme di confidenza è un sottinsieme A(X) dello spazio parametrico A che dipendeesclusivamente dalla variabile X, e non da altri parametri ignoti. Quindi, in un certosenso, è una statistica che assume come valori degli insiemi. Un insieme di confidenza èuna stima di a, nel senso che ci aspettiamo che a appartenga ad A(X) con probabilitàelevata. In particolare, il livello di confidenza è la più piccola probabilità che a appartengaad A(X):

min{P[a A(X) | a]: a A}.

Di solito si cerca di costruire un insieme di confidenza per a con un certo livello diconfidenza 1 - r, dove 0 < r < 1. Livelli di confidenza comunemente utilizzati sono 0.9,0.95, e 0.99. A volta la cosa migliore che si può fare è costruire un insieme di confidenzail cui livello di confidenza è almeno 1 - r; questo è detto insieme di confidenzaconservative 1 - r per a.

Osserva che, quando effettuiamo un esperimento e osserviamo i dati x, l'insieme diconfidenza calcolato è A(x). Il valore vero del parametro a può appartenere oppure no aquesto insieme, e di solito ciò è ignoto. In ogni caso, per la legge dei grandi numeri, seripetiamo più volte l'esperimento, la proporzione di insiemi che contiene a converge a

P[a A(X) | a) 1 - r.

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval1.html (1 di 5) [22/11/2001 17.59.59]

Page 578: Laboratorio virtuale di probabilità e statistica

Questo è il significato del termine confidenza.

Nota inoltre che la qualità di un intervallo di confidenza come stimatore di a, dipende dadue fattori: il livello di confidenza e la dimensione dell'insieme; una buona stima hadimensione ridotta (e pertanto definisce un intervallo ristretto per a) ed elevataconfidenza. In ogni caso, per un dato X, esiste di solito un compromesso tra livello diconfidenza e dimensione: aumentare il livello di confidenza implica aumentare ladimensione dell'insieme. Osserva infine che, in generale, la dimensione dell'insieme è unavariabile casuale, anche se in alcuni casi è una costante.

In molte situazioni si ha interesse a stimare un certo parametro reale b = b(a). Peresempio, se a è un vettore, b può rappresentare una delle coordinate di a; le altrecoordinate, in questo contesto, risulterebbero essere parametri di disturbo. In questo caso,l'insieme di confidenza ha forma

A(X) = {a A: L(X) b U(X)}

dove L(X) e U(X) sono statistiche. In questo caso [L(X), U(X)] è detto intervallo diconfidenza (bilaterale) per b. Se l'insieme di confidenza ha forma

A(X) = {a A: L(X) b}

allora L(X) è detto limite inferiore di confidenza per b. Se l'insieme di confidenza haforma

A(X) = {a A: b U(X)}

allora U(X) è detto limite superiore di confidenza per b.

Se possiamo costruire un intervallo di confidenza per un parametro, allora possiamocostruire un intervallo di confidenza per una funzione del parametro.

1. Supponi che [L, U] sia un livello di confidenza 1 - r per b e supponi che g sia unafunzione definita sullo spazio parametrico A.

Se g è crescente, prova che [g(L), g(U)] è l'intervallo al livello di confidenza 1 - rper g(b).

1.

Se g è decrescente, prova che [g(U), g(L)] è l'intervallo al livello di confidenza 1 -rper g(b).

2.

2. Supponi che L sia il limite di confidenza inferiore al livello 1 - r1 per a e che U sia illimite di confidenza inferiore al livello 1 - r2 per a. Dimostra che se r = r1 + r2 < 1 allora[L, U] è un intervallo di confidenza conservative a livello 1 - r per a. Suggerimento: Usala disuguaglianza di Bonferroni.

Elementi pivotali

Potrebbe sembrare molto difficile costruire intervalli di confidenza per un parametro c.Tuttavia, in molti importanti situazioni, gli insiemi di confidenza possono essere costruiti

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval1.html (2 di 5) [22/11/2001 17.59.59]

Page 579: Laboratorio virtuale di probabilità e statistica

semplicemente utilizzando variabili casuali note come elementi pivotali.

Una elemento pivotale per a è una variabile casuale V(X, a) funzione della variabile delleosservazioni X e del parametro a, ma la cui distribuzione non dipende da a. Supponi cheV(X, a) assuma valori in T. Se conosciamo la distribuzione dell'elemento pivotale, alloraper un dato r possiamo trovare B T (che non dipende da a) tale che

P[V(X, a) B | a] = 1 - r.

Segue quindi che un insieme di confidenza al livello 1 - r per il parametro è dato da

A(X) = {a A: V(X, a) B}.

In molti casi, abbiamo un parametro reale a di interesse, e la variabile pivot a valori realiV(x, a) è funzione monotona di a per dati x. L'insieme di confidenza è quindi unintervallo:

3. Prova che, se V(x, a) è monotona rispetto ad a per ogni x allora l'insieme diconfidenza è un intervallo di forma

[L(X, v1), U(X, v2)].

Ci sono molti modi di costruire i numeri v1 e v2 riportati poc'anzi; la scelta ottimale èquella che rende minima la lunghezza dell'intervallo. Per r appartenente a (0, 1), sia v(r) ilquantile di ordine r per la variabile pivot V(X, a) (di nuovo, questo quantile non dipendeda a).

4. Supponi che 0 < p < 1. Prova che v1 = v[(1 - p)r], v2 = v[(1 - pr)] soddisfa lecondizioni per la costruzione di intervalli di confidenza.

La scelta p = 1 / 2 corrisponde a un intervallo di confidenza con code bilanciate; si trattadel tipo più utilizzato di intervalli di confidenza, ed è normalmente (ma non sempre) lascelta ottimale. Di nuovo, esiste un trade-off tra il livello di confidenza e la dimensionedell'insieme di confidenza.

5. Sia A(X) l'insieme di confidenza ottenuto utilizzando v1 e v2 dell'esercizioprecedente. Prova che, per dati p e X, A(X) è decrescente rispetto ad a e pertantocrescente rispetto a 1 - r.

Gli elementi pivotali non sono unici; è quindi importante individuare quelli chepossiedono distribuzioni note e che limitano il parametro in maniera ottimale.

6. Supponi che V sia una variabile pivot per a. Se u è una funzione definita su V e unon ha parametri ingoti, mostra che U = u(V) è anch'essa un elemento pivotale pera.

Famiglie di posizione e scala

Nel caso delle famiglie di posizione e scala di distribuzioni, possiamo individuarefacilmente degli elementi pivotali. Supponi che U sia una variabile casuale a valori realicon funzione di densità g e senza parametri ignoti. Sia

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval1.html (3 di 5) [22/11/2001 17.59.59]

Page 580: Laboratorio virtuale di probabilità e statistica

X = µ + dU dove µ appartiene a R e d > 0.

Ricorda che la funzione di densità di X è

f(x | µ, d) = g[(x - µ) / d] / d

e che la corrispondente famiglia di distribuzioni è detta famiglia di posizione e scalaassociata alla distribuzione di U. Supponi ora che X1, X2, ..., Xn sia un campione casualedi dimensione n estratto dalla distribuzione di X. Ricorda che media campionaria evarianza campionaria sono definite rispettivamente da

M = (1 / n) i = 1, ..., n Xi.1.

S2 = [1 / ( n - 1)] i = 1, ..., n (Xi - M)2.2.

7. Supponi che d sia noto e µ ignoto. Prova che (M - µ) / d è elemento pivotale per µ.

8. Siano µ e d ignoti. Dimostra che (M - µ) / S è elemento pivotale per µ.

9. Supponi che µ sia noto e d ignoto. Mostra che (M - µ) / d è elemento pivotale per d.

10. Supponi che µ e d siano ignoti. Prova che S / d è elemento pivotale per d.

La famiglia di posizione e scala più importante è la normale. Il problema della stima deiparametri di questa famiglia di distribuzioni è esaminato nei prossimi due paragrafi. Cioccuperemo qui di seguito di alcuni altri problemi.

La distribuzione esponenziale

Supponi che X1, X2, ..., Xn sia un campione casuale di dimensione n della distribuzioneesponenziale con parametro di scala b > 0.

11. Dimostra che 2nM / b ha distribuzione chi-quadro con 2n gradi di libertà, ed èpertanto variabile pivot per b.

Osserva che la variabile dell'esercizio 11 è un multiplo di quella dell'esercizio 9 (per µ =0). Per p appartenente a (0, 1), sia vp il quantile di ordine p della distribuzione chi-quadrocon 2n gradi di libertà.

12. Usa la variabile pivot dell'esercizio precedente per dimostrare che l'intervallo alievllo di confidenza 1 - r e i limiti di confidenza inferiore e superiore sono dati da:

[2nM / v1 - r/2, 2nM / vr/2]1.

2nM / vr.2.

2nM / v1 - r.3.

Laboratorio virtuale > Stima intervallare > [1] 2 3 4 5 6

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval1.html (4 di 5) [22/11/2001 17.59.59]

Page 581: Laboratorio virtuale di probabilità e statistica

Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval1.html (5 di 5) [22/11/2001 17.59.59]

Page 582: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Stima intervallare > 1 [2] 3 4 5 6

2. Stima della media nel modello normale

Concetti preliminari

Supponiamo che X1, X2, ..., Xn sia un campione casuale della distribuzione normale con

media µ e varianza d2. In questa sezione ci occuperemo della costruzione di intervalli diconfidenza per µ, cioè di uno dei casi più importanti di stima intervallare. Un paragrafoparallelo riguardo ai test sulla media nel modello normale si trova all'interno del capitolosul test di ipotesi.

Costruiremo gli intervalli di confidenza cercando delle variabili pivot per µ. Il metodo dicostruzione dipende dal fatto che d sia noto oppure no; d è quindi un parametro didisturbo riguardo alla stima di µ. Gli elementi fondamentali per la costruzione degliintervalli di confidenza sono la media campionaria e la varianza campionaria

M = (1 / n) i = 1, ..., n Xi.1.

S2 = [n / (n - 1)] i = 1, ..., n (Xi - M)2.2.

e le proprietà di queste statistiche nel caso in cui la distribuzione sia normale. Ricordiamoinoltre che la famiglia normale è una famiglia di posizione e scala.

Intervalli di confidenza per µ con d noto

Supponiamo in primo luogo che d sia; questa assunzione è spesso (ma non sempre)artificiale ricorda che la statistica

Z = (M - µ) / (d / n1/2)

ha distribuzione normale standardizzata ed è quindi pivot per µ. Per p appartenente a (0,1), sia zp il quantile di ordine p della distribuzione normale standardizzata. Per dati valoridi p, zp può essere ottenuto dall'ultima riga della tavola della distribuzione t, o dalla tavoladella normale standardizzata, o dall'applet quantile.

1. Usa la variabile pivot Z per mostrare che intervallo di confidenza al livello 1 - a elimite di confidenza inferiore e superiore per µ sono:

[M - z1 - r/2 d / n1/2, M + z1 - r/2 d / n1/2].1.

M + z1 - r d / n1/2.2.

M - z1 - r d / n1/2.3.

Osserva che abbiamo utilizzato code bilanciate nella costruzione dell'intervallo

Stima della media nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval2.html (1 di 4) [22/11/2001 18.00.05]

Page 583: Laboratorio virtuale di probabilità e statistica

bidirezionale, per cui tale intervallo è simmetrico rispetto alla media campionaria M.

2. Usa l'esperimento di stima della media per impratichirti con la procedura. Selezionala distribuzione normale e il pivot normale. Usa diversi valori dei parametri, livelli diconfidenza, numerosità campionarie e tipi di intervallo. Per ciascuna configurazione,simula 1000 replicazioni aggiornando ogni 10. Osserva che l'intervallo di confidenzacattura con successo la media se e solo se il valore della variabile pivot giace tra i quantili.Nota la dimensione e la posizione degli intervalli di confidenza e quanto bene laproporzione di intervalli "riusciti" approssima il livello di confidenza teorico.

Sia E la distanza tra la media campionaria M e uno dei limiti di confidenza

E = z d / n1/2,

dove z = z1 - r/2 per l'intervallo bidirezionale e z = z1 - r per gli intervalli monodirezionali.Osserva che E è deterministico, e che la lunghezza dell'intervallo bidirezionale è 2E. Ilnumero E è a volte detto margine d'errore.

3. Prova che

E decrescere al crescere della dimensione del campione n.1.

E cresce al crescere della devizione standard d2.

E cresce al crecsere del livello di confidenza 1 - r.3.

L'esercizio 3(c) mostra un'altra volta che esiste un trade-off tra il livello di confidenza el'ampiezza dell'intervallo di confidenza. Se n e d sono dati, possiamo ridurre E, e quindiavere un intervallo più piccolo solo al prezzo di ridurre la confidenza nella stima. Alcontrario, possiamo aumentare la confidenza nella stima solo al costo di aumentare E. Inmolti casi, il primo passo del disegno dell'esperimento consiste nel determinare ladimensione del campione necessaria per stimare µ con un dato margine di errore e un datolivello di confidenza.

4. Prova che la dimensione campionaria necessaria per stimare µ con confidenza 1 - r emargine di errore E è

n = ceil[(zd / E)2].

Osserva che n è direttamente proporzionale al quadrato z2 e a d2 e inversamente a E2. Ciòimplica che vale una legge dei rendimenti marginali decrescenti nella riduzione delmargine d'errore. Per esempio, se vogliamo dimezzare un dato margine d'errore,dobbiamo quadruplicare l'ampiezza del campione.

Intervalli di confidenza per µ con d ignoto

Consideriamo ora il caso, più realistico, in cui anche d è ignoto. Ricorda che

T = (M - µ) / (S / n1/2)

ha distribuzione t di Student con n - 1 gradi di libertà, ed è pertanto elemento pivotale perµ. Per k > 0 e p appartenente a (0, 1), sia tk, p il quantile di ordine p per la distribuzione t

Stima della media nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval2.html (2 di 4) [22/11/2001 18.00.05]

Page 584: Laboratorio virtuale di probabilità e statistica

con n - 1 gradi di libertà. Per dati valori di k r p, i valori tk, p possono essere ottenuti dallatavola della distribuzione t o dall'applet quantile.

5. Usa l'elemento pivotale T per mostrare che intervallo di confidenza al livello 1 - r elimite di confidenza inferiore e superiore per µ sono:

[M - tn - 1, 1 - r/2 S / n1/2, M + tn - 1, 1 - r/2 S / n1/2].1.

M + tn - 1, 1 - r S / n1/2.2.

M - tn - 1, 1 - r S / n1/2.3.

Osserva che abbiamo utilizzato code bilanciate nella costruzione dell'intervallobidirezionale, per cui tale intervallo è simmetrico rispetto alla media campionaria.Osserva inoltre che centro e lunghezza dell'intervallo sono casuali.

6. Usa l'esperimento di stima della media per impratichirti con la procedure. Selezionala distribuzione normale con elemento pivotale di Student. Usa diversi valori deiparametri, livelli di confidenza, numerosità campionarie e tipi di intervallo. Per ciascunaconfigurazione, simula 1000 replicazioni aggiornando ogni 10. Osserva che l'intervallo diconfidenza cattura con successo la media se e solo se il valore della variabile pivot giacetra i quantili. Nota la dimensione e la posizione degli intervalli di confidenza e quantobene la proporzione di intervalli "riusciti" approssima il livello di confidenza teorico.

Distribuzioni non normali

Una delle assunzioni fondamentali che abbiamo fatto finora è che la distribuzionesottostante sia normale. Ovviamente, nelle applicazioni pratiche, non possiamo saperegranché della distribuzione che genera i dati. Supponiamo che la distribuzione sottostantenon sia normale. Se n è relativamente grande, la distribuzione della media campionariasarà comunque approssimatamente normale, sulla base del teorema limite centrale, equindi le conclusioni dovrebbero restare approssimativamente valide. Gli eserciziseguenti trattano della robustezza di questa procedura.

7. Simula l'esperimento di stima della media per impratichirti con la procedure.Seleziona la distribuzione gamma con elemento pivotale di Student. Usa diversi valori deiparametri, livelli di confidenza, numerosità campionarie e tipi di intervallo. Per ciascunaconfigurazione, simula 1000 replicazioni aggiornando ogni 10. Osserva che l'intervallo diconfidenza cattura con successo la media se e solo se il valore della variabile pivot giacetra i quantili. Nota la dimensione e la posizione degli intervalli di confidenza e quantobene la proporzione di intervalli "riusciti" approssima il livello di confidenza teorico.

8. Nell'esperimento di stima della media, ripeti l'esercizio precedente utilizzando ladistribuzione uniforme.

La dimensione minima di n affinché la procedura di test funzioni dipende, ovviamente,dalla distribuzione sottostante; più la distribuzione devia dalla normalità, più osservazionisono necessarie. Fortunatamente, la convergenza alla normalità nel teorema limitecentrale è rapida, per cui, come avrai osservato dagli esercizi, possiamo, nella maggior

Stima della media nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval2.html (3 di 4) [22/11/2001 18.00.05]

Page 585: Laboratorio virtuale di probabilità e statistica

parte dei casi, cavarcela con dimensioni campionarie relativamente ridotte (30 o piùosservazioni).

Esercizi numerici

9. La lunghezza di un certo pezzo meccanico dev'essere 10 centimetri, ma a causa diimperfezioni del processo produttivo, la lunghezza effettiva è distribuita normalmente conmedia µ e varianza d2. La varianza è dovuta a fattori inerenti al processo produttivi erimane stabile nel tempo. È noto dai dati storici che d = 0.3. D'altra parte, µ può essereinfluenzata da vari parametri del processo e quindi può variare di frequente. Un campionedi 100 pezzi ha media 10.2. Costruire un intervallo di confidenza al 95% per µ.

10. Supponi che il peso di un pacchetto di patatine (in grammi) sia una variabilecasuale con media µ e varianza d2, entrambe ignote. Un campione di 75 pacchetti hamedia 250 e deviazione standard 10. Costruisci un intervallo di confidenza al 90% per µ.

11. In un'azienda di telemarketing, la durata di una telefonata (in secondi) è unavariabile casuale con media µ e varianza d2, entrambe ignote. Un campione di 50telefonatè ha durata media 300 e deviazione standard 30. Costruisci l'intervallo diconfidenza monodirezionale superiore (al 95%) per µ.

12. In una fattoria, il peso di una pesca (in once) alla raccolta è una variabile casualecon deviazione standard 0.5. Quante pesche si devono esaminare per stimare il pesomedio con margine d'errore ± 0.2 e livello di confidenza del 95%?

13. Il salario orario per un certo lavoro edile è una variabile casuale con deviazionestandard 1.25. Quanti lavoratori devono essere estratti per costruire un intervallo diconfidenza monodirezionale inferiore al 95% con margine di errore di 0.25?

14. Costruisci l'intervallo di confidenza bidirezionale al 95%, e quelli monodirezionaliinferiore e superiore per la velocità della luce, utilizzando i dati di Michelson. In ciascuncaso, nota se il valore "vero" giace nell'intervallo di confidenza.

15. Costruisci l'intervallo di confidenza bidirezionale al 95%, e quelli monodirezionaliinferiore e superiore per la densità della terra utilizzando i dati di Cavendish. In ciascuncaso, nota se il valore "vero" giace nell'intervallo di confidenza.

16. Costruisci l'intervallo di confidenza bidirezionale al 95%, e quelli monodirezionaliinferiore e superiore per la parallasse del sole, utilizzando i dati di Short. In ciascun caso,nota se il valore "vero" giace nell'intervallo di confidenza.

17. Per la lunghezza dei petali di iris Setosa sui dati di Fisher sugli iris, costruisci unintervallo di confidenza al 90% per µ.

Laboratorio virtuale > Stima intervallare > 1 [2] 3 4 5 6Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Stima della media nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval2.html (4 di 4) [22/11/2001 18.00.05]

Page 586: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Stima intervallare > 1 2 [3] 4 5 6

3. Stima della varianza nel modello normale

Concetti preliminari

Supponiamo che X1, X2, ..., Xn sia un campione casuale della distribuzione normale con

media µ e varianza d2. In questo paragrafo impareremo a costruire intervalli di confidenzaper d2; è questo uno dei casi più rilevanti di stima intervallare. Una trattazione parallela,relativa ai test per la varianza nel modello normale si trova nel capitolo sul test di ipotesi .

Al solito, costruiremo gli intervalli di confidenza cercando elementi pivotali per d2. Ilmetodo di costruzione dipende dal fatto che la media µ sia nota oppure no; µ è pertanto untermine di disturbo ai fini della stima di d2. Ricordiamo inoltre che la famiglia normale èuna famiglia di posizione e scala.

Intervalli di confidenza per d2 con µ noto

Supponiamo, per iniziare, che µ sia noto, anche se questa assunzione è di solito irrealisticanelle applicazioni pratiche. Ricorda che, in questo caso, lo stimatore naturale di d2 is

W2 =(1 / n) i = 1, ..., n (Xi - µ)2.

Ricorda inoltre che V = nW2 / d2 ha distribuzione chi-quadro con n gradi di libertà, ed èpertanto variabile pivot per d2. Per k > 0 e p appartenente a (0, 1), sia vk, p il quantile diordine p di una distribuzione chi-quadro con k gradi di libertà. Per valori dati di k, p e n,vk, p può essere ricavato dalla tavola della distribuzione chi-quadro o dall'applet quantile.

1. Usa la variabile pivot V per mostrare che intervallo di confidenza al livello 1 - r elimite di confidenza inferiore e superiore per d2 sono:

[nW2 / vn, 1 - r/2, nW2 / vn, r/2].1.

nW2 / vn, r.2.

nW2 / vn, 1 - r.3.

Osserva che abbiamo usato code bilanciate nella costruzione dell'intervallo bidirezionale,ma l'intervallo non è simmetrico rispetto alla varianza campionaria W2 (a differenza degliintervalli di confidenza per µ, che sono sempre simmetrici rispetto alla media campionariaM).

Intervalli di confidenza per d2 con µ ignoto

Consideriamo ora il caso, più realistico, in cui µ e d2 sono entrambi ignoti. In questo caso,

Stima della varianza nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval3.html (1 di 3) [22/11/2001 18.00.10]

Page 587: Laboratorio virtuale di probabilità e statistica

la varianza campionaria è

S2 = [1 / (n - 1)] i = 1, ..., n (Xi - M)2.

dove M = (1 / n) i = 1, ..., n Xi è la media campionaria. Ricorda che

V = (n - 1)S2 / d2

ha distribuzione chi-quadro con n - 1 gradi di libertà, ed è quindi variabile pivot per d2.

2. Usa la variabile pivot V per mostrare che intervallo di confidenza al livello 1 - r elimite di confidenza inferiore e superiore per d2 sono:

[(n - 1)S2 / vn-1, 1 - r/2, (n - 1)S2 / vn-1, r/2].1.

(n - 1)S2 / vn-1, r.2.

(n - 1)S2 / vn-1, 1 - r.3.

3. Usa l' esperimento di stima della varianza per impratichirti con l'argomento.Seleziona la distribuzione normale. Usa diversi valori dei parametri, livelli di confidenza,numerosità campionarie e tipi di intervallo. Per ciascuna configurazione, simula 1000replicazioni aggiornando ogni 10. Osserva che l'intervallo di confidenza cattura consuccesso la deviazione standard se e solo se il valore della variabile pivot giace tra iquantili. Nota la dimensione e la posizione degli intervalli di confidenza e quanto bene laproporzione di intervalli "riusciti" approssima il livello di confidenza teorico.

Distribuzioni non-normali

Una delle assunzioni fondamentali che abbiamo fatto finora è che la distribuzionesottostante sia normale. Ovviamente, nelle applicazioni pratiche, non possiamo saperegranché della distribuzione che genera i dati. Tuttavia, le procedure presentate possonoessere utilizzate comunque per costruire intervalli di confidenza approssimati per lavarianza. Vedrai, nelle simulazioni seguenti, che questa procedura non è così robustacome quella ricavata per la media. Comunque, se la distribuzione non è troppo diversadalla normale, di solito si ottengono risultati soddisfacenti.

4. Nell'esperimento di stima della varianza, seleziona la distribuzione gamma. Usadiversi valori dei parametri, livelli di confidenza, numerosità campionarie e tipi diintervallo. Per ciascuna configurazione, simula 1000 replicazioni aggiornando ogni 10.Nota la dimensione e la posizione degli intervalli di confidenza e quanto bene laproporzione di intervalli "riusciti" approssima il livello di confidenza teorico.

5. Nell'esperimento di stima della varianza, seleziona la distribuzione uniforme. Usadiversi valori dei parametri, livelli di confidenza, numerosità campionarie e tipi diintervallo. Per ciascuna configurazione, simula 1000 replicazioni aggiornando ogni 10.Nota la dimensione e la posizione degli intervalli di confidenza e quanto bene la

Stima della varianza nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval3.html (2 di 3) [22/11/2001 18.00.10]

Page 588: Laboratorio virtuale di probabilità e statistica

proporzione di intervalli "riusciti" approssima il livello di confidenza teorico.

Esercizi numerici

6. Mostra che, per entrambe le procedure, intervallo di confidenza a livello 1 - a elimiti superiore e inferiore per d si possono ottenere prendendo la radice quadrata deicorrispondenti valori per d2.

7. Supponi che il peso di un pacchetto di patatine (in grammi) sia una variabile casualecon media µ e varianza d2, entrambe ignote. Un campione di 75 pacchetti ha media 250 edeviazione standard 10. Costruisci un intervallo di confidenza al 90% per d.

8. In un'azienda di telemarketing, la durata di una telefonata (in secondi) è unavariabile casuale con media µ e varianza d2, entrambe ignote. Un campione di 50telefonatè ha durata media 300 e deviazione standard 30. Costruisci l'intervallo diconfidenza monodirezionale superiore (al 95%) per d.

9. Utilizzando i dati di Michelson, costruisci l'intervallo di confidenza bidirezionale al95%, e quelli monodirezionali inferiore e superiore per la deviazione standard dellavelocità della luce. Assumi che il "valore vero" sia la media nota.

10. Utilizzando i dati di Cavendish, costruisci l'intervallo di confidenza bidirezionale al95%, e quelli monodirezionali inferiore e superiore per la deviazione standard delladensità della terra. Assumi che il "valore vero" sia la media nota.

11. Utilizzando i dati di Short, costruisci l'intervallo di confidenza bidirezionale al95%, e quelli monodirezionali inferiore e superiore per la deviazione standard dellaparallasse del sole. Assumi che il "valore vero" sia la media nota.

12. Per la lunghezza dei petali di Setosa, sui dati di Fisher sugli iris, costruiscil'intervallo di confidenza al 90% per d.

Laboratorio virtuale > Stima intervallare > 1 2 [3] 4 5 6Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Stima della varianza nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval3.html (3 di 3) [22/11/2001 18.00.10]

Page 589: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Stima intervallare > 1 2 3 4 [5] 6

5. Stima nel modello normale bivariato

In questo paragrafo studieremo i problemi di stima dei modelli normale a due campioni enormale bivariato. Questo paragrafo si svolge parallelamente a quello sui test nel modellonormale bivariato nel capitolo sul test di ipotesi.

Il modello normale a due campioni

Supponiamo che X = (X1, X2, ..., Xn1) sia un campione casuale di dimensione n1 di una

distribuzione normale con media µ1 e varianza d12 e che Y = (Y1, Y2, ..., Yn2) sia un

campione casuale di dimensione n2 di una distribuzione normale con media µ2 e varianza

d22. Supponiamo inoltre che i campioni X e Y siano indipendenti.

Situazioni di questo tipo si presentano di frequente quando le variabili casualirappresentano una misura di interesse sulle unità della popolazione, e i due campionicorrispondono a due diversi trattamenti. Per esempio, possiamo essere interessati allapressione sanguigna di una certa popolazione di pazienti. Il vettore X registra la pressionesanguigna di un campione di controllo, mentre il vettore Y registra la pressione di uncampione che assume un nuovo farmaco. Similmente, potremmo essere interessati allaproduttività di un campo di grano. Il vettore X registra il raccolto di un appezzamentotrattato con un tipo di fertilizzante, mentre il vettore Y registra il raccolto di un altroappezzamento trattato con un diverso tipo di fertilizzante.

Di solito si è interessati a un confronto tra i parametri (media o varianza) delle duedistribuzioni da cui si campiona. In questo paragrafo impareremo a costruire intervalli diconfidenza per il rapporto tra varianze e la differenza tra le medie. Come abbiamo giàvisto in precedenza per altri problemi di stima, le procedure differiscono a seconda delfatto che i parametri siano noti oppure no. Inoltre, gli elementi chiave sono le mediecampionarie, le varianze campionarie e le proprietà di queste statistiche nel caso delladistribuzione normale. Useremo la seguente notazione:

M1 = (1 / n1) i = 1, ..., n1 Xi.1.

W12 = (1 / n1) i = 1, ..., n1 (Xi - µ1)2.2.

S12 = [1 / (n1 - 1)] i = 1, ..., n1 (Xi - M1)2.3.

M2 = (1 / n2) i = 1, ..., n2 Xi.4.

W22 = (1 / n2) i = 1, ..., n2 (Xi - µ2)2.5.

Stima nel modello normale bivariato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval5.html (1 di 6) [22/11/2001 18.00.20]

Page 590: Laboratorio virtuale di probabilità e statistica

S22 = [1 / (n2 - 1)] i = 1, ..., n2 (Xi - M2)2.6.

Intervalli di confidenza per d22 / d1

2 con µ1 e µ2 note

Consideriamo in primo luogo il problema della stima del rapporto tra varianze d22 / d1

2

sotto l'ipotesi che le medie µ1 e µ1 siano note. Al solito, questa assunzione è spessoirrealistica.

1. Prova che F = (W12 / d1

2) / (W22 / d2

2) ha distribuzione F con n1 gradi di libertà alnumeratore e n2 gradi di libertà al denominatore.

Segue che F è una variabile pivot per d22 / d1

2. Per p appartenente a (0, 1) e per m > 0 e k>0, sia fm, n, p il quantile di ordine p della distribuzione F con m gradi di libertà alnumeratore e n gradi di libertà al denominatore. Per dati valori di m, n e p, fm, n, p puòessere calcolata utilizzando l'applet quantile.

2. Usa la variabile pivot F per mostrare che intervallo di confidenza al livello 1 - r elimite di confidenza inferiore e superiore per d2

2 / d12 sono:

[fn1, n2, r/2 W22 / W1

2, fn1, n2, 1 - r/2 W22 / W1

2].1.

fn1, n2, 1 - r W22 / W1

2.2.

fn1, n2, r W22 / W1

2.3.

Intervalli di confidenza per d22 / d1

2 con µ1 e µ2 ignote

Consideriamo ora il problema della stima del rapporto tra varianze d22 / d1

2 sotto l'ipotesi,più realistica, che le medie µ1 e µ1 siano ignote.

3. Prova che F = (S12 / d1

2) / (S22 / d2

2) hae distribuzione F con n1 - 1 gradi di libertàal numeratore e n2 - 1 gradi di libertà al denominatore.

Segue che F è variabile pivot per d22 / d1

2.

4. Usa la variabile pivot F per mostrare che intervallo di confidenza al livello 1 - r elimite di confidenza inferiore e superiore per d2

2 / d12 sono:

[fn1 - 1, n2 - 1, r/2 S22 / S1

2, fn1 - 1, n2 - 1, 1 - r/2 S22 / S1

2].1.

fn1 - 1, n2 - 1, 1 - a1 - 1, n2 - 1, 1 - r S22 / S1

2.2.

fn1 - 1, n2 - 1, r S22 / S1

2.3.

Intervalli di confidenza per µ2 - µ1 con d1 e d2 note

Consideriamo ora il problema della stima della differenza tra medie µ2 - µ1 sotto l'ipotesi

Stima nel modello normale bivariato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval5.html (2 di 6) [22/11/2001 18.00.20]

Page 591: Laboratorio virtuale di probabilità e statistica

che le deviazioni standard d1 e d2 siano note. Ovviamente questa assunzione è spessopoco realistica.

5. Prova che M2 - M1 ha distribuzione normale con media µ2 - µ1 e varianza

d12 / n1 + d2

2 / n2.

6. Prova che Z = [(M2 - M1) - (µ2 - µ1)] / (d12 / n1 + d2

2 / n2)1/2 ha distribuzionenormale standardizzata.

Z è variabile pivot per µ2 - µ1. Al solito, per p appartenente a (0, 1), indicheremo con zp ilquantile di ordine p della normale standardizzata.

7. Usa la variabile pivot Z per mostrare che intervallo di confidenza al livello 1 - r elimite di confidenza inferiore e superiore per µ2 - µ1 sono:

[(M2 - M1) - z1 - r/2 (d12 / n1 + d2

2 / n2)1/2,

(M2 - M1) + z1 - r/2 (d12 / n1 + d2

2 / n2)1/2].

1.

(M2 - M1) + z1 - r (d12 / n1 + d2

2 / n2)1/2.2.

(M2 - M1) - z1 - r (d12 / n1 + d2

2 / n2)1/2.3.

Intervalli di confidenza per µ2 - µ1 con d1 e d2 ignote

Consideriamo infine il problema della stima della differenza tra medie µ2 - µ1 sottol'ipotesi, più realistica, che le deviazioni standard d1 e d2 siano ignote. In questo caso èpiù difficile trovare una variabile pivot adatta, ma possiamo esaminare il caso in cui ledeviazioni standard sono uguali. Assumiamo pertanto che

d1 = d2 = d e che il valore comune d sia ignoto.

Questa assunzione è ragionevole se esiste una variabilità inerente alla misurazione chenon cambia applicando diversi trattamenti alle unità della popolazione.

8. Dimostra che Z = [(M2 - M1) - (µ2 - µ1)] / [d(1 / n1 + 1 / n2)1/2] ha distribuzionenormale standardizzata.

Per costruire l'elemento pivotale, abbiamo bisogno di una stima puntaule di d2. Un'ideanaturale è quella di considerare una somma ponderata delle varianze campionarie S1

2 e

S22, con gradi di libertà pari ai fattori di peso (questa è detta pooled estimate di d2). Sia

quindi

S2 = [(n1 - 1)S12 + (n2 - 1)S2

2] / (n1 + n2 - 2).

9. Dimostra che V = (n1 + n2 - 2)S2 / d2 ha distribuzione chi-quadro con n1 + n2 - 2

gradi di libertà. Suggerimento: (ni - 1)Si2 / d2 ha distribuzione chi-quadro con ni - 1 gradi

di libertà per i = 1 e 2, e queste variabili sono indipendenti.

Stima nel modello normale bivariato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval5.html (3 di 6) [22/11/2001 18.00.20]

Page 592: Laboratorio virtuale di probabilità e statistica

10. Prova che M2 - M1 e S2 sono indipendenti. Suggerimento: (M1, S1) e (M2, S2) sonoindipendenti, M1 e S1 sono indipendenti, e M2 e S2 sono indipendenti.

11. Mostra che T = [(M2 - M1) - (µ2 - µ1)] / [S(1 / n1 + 1 / n2)1/2] ha distribuzione t con

n1 + n2 - 2 gradi di libertà. Suggerimento: Prova che T = Z / [V / (n1 + n2 - 2)]1/2, dove Zè la variabile casuale dell'esercizio 8 e V è la variabile casuale dell'esercizio 9. Inoltre, Z eV sono indipendenti (esercizio 10).

Dall'esercizio 11, segue che T è una variabile pivot per µ2 - µ1. Per k > 0 e p appartenentea (0, 1) sia tk, p il quantile di ordine p della distribuzione t con k gradi di libertà. Per dativalori di k e p, i valori di tk, p si ricavano dalla tavola della distribuzione t di Student odall'applet quantile.

12. Usa l'elemento pivotale T per mostrare che intervallo di confidenza al livello 1 - r elimite di confidenza inferiore e superiore per µ2 - µ1 sono:

[(M2 - M1) - tn1 + n2 - 2, 1 - a/21 + n2 - 2, 1 - r/2 S(1 / n1 + 1 / n2)1/2,

(M2 - M1) + tn1 + n2 - 2, 1 - a/21 + n2 - 2, 1 - r/2 S(1 / n1 + 1 / n2)1/2].

1.

(M2 - M1) + tn1 + n2 - 2, 1 - a1 + n2 - 2, 1 - r S(1 / n1 + 1 / n2)1/2.2.

(M2 - M1) - tn1 + n2 - 2, 1 - r S(1 / n1 + 1 / n2)1/2.3.

Stima nel modello normale bivariato

Consideriamo ora un modello simile a quello normale a due campioni, ma molto piùsemplice. Supponiamo che

(X1, Y1), (X2, Y2), ..., (Xn, Yn)

sia un campione casuale di dimensione n dalla distribuzione normale bivariata (X, Y) con

E(X) = µ1, E(Y) = µ2, var(X) = d12, var(Y) = d2

2, cov(X, Y) = d1,2.

Pertanto, invece che una coppia di campioni, abbiamo un campione di coppie. Questo tipodi modello si presenta di frequente negli esperimenti prima e dopo, in cui si registra unamisura di interesse su un campione di n unità della popolazione prima e dopo un certotrattamento. Per esempio, possiamo registrare la pressione sanguigna su un campione di npazienti prima e dopo la somministrazione di un certo farmaco. Così come nel caso deidue campioni, si è di solito interessati a confrontare la differenza tra le medie.

Indicheremo medie e varianze campionarie di X e Y, e la covarianza campionaria come

M1, M2, S12, S2

2, S12.

13. Prova che Y1 - X1, Y2 - X2, ..., Yn - Xn è un campione casuale di dimensione n da

una distribuzione normale con media µ2 - µ1 e varianza d2 = d12 + d2

2 - 2d1,2.

Stima nel modello normale bivariato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval5.html (4 di 6) [22/11/2001 18.00.20]

Page 593: Laboratorio virtuale di probabilità e statistica

Dall'esercizio 31, le differenze seguono il modello normale semplice a un campione.

14. Mostra che media e varianza campionaria delle differenze valgono

M = M2 - M1.1.

S2 = S12 + S2

2 - 2S12.2.

15. Dimostra che, se d è nota, allora l'intervallo di confidenza al livello 1 - a e i limitidi confidenza inferiore e superiore sono i seguenti, dove i quantili sono quelli dellanormale standardizzata:

[M - z1 - a/2 d / n1/2, M + z1 - a/2 d / n1/2].1.

M + z1 - a d / n1/2.2.

M - z1 - a d / n1/2.3.

16. Prova che, se d è ignoto, allora l'intervallo di confidenza al livello 1 - a e i limiti diconfidenza inferiore e superiore sono i seguenti, dove i quantili sono quelli di unadistribuzione t con n - 1 gradi di libertà:

[M - tn - 1, 1 - r/2 S / n1/2, M + tn - 1, 1 - r/2 S / n1/2].1.

M + tn - 1, 1 - r S / n1/2.2.

M - tn - 1, 1 - r S / n1/2.3.

17. Supponi che X = (X1, X2, ..., Xn) Y = (Y1, Y2, ..., Yn) siano campioni indipendentidi distribuzioni normali. Questi dati seguono entrambi i modelli: quello normale a duecampioni e quello normale bivariato. Quale procedura è preferibile per stimare ladifferenza tra le medie µ2 - µ1?

Esercizi numerici

18. Si sta sviluppando un nuovo farmaco per ridurre un componente del sangue. Uncampione di 36 pazienti riceve un placebo, metre 49 pazienti sono trattati col farmaco. Lestatistiche, in milligrammi, sono m1 = 87, s1 = 4, m2 = 63, s2 = 6.

Trova l'intervallo di confidenza al 90% per d2 / d1.1.

Assumendo d1 = d2, calcola l'intervallo di confidenza al 90% per µ2 - µ1.2.

Basandoti su (a), è ragionevole l'assunzione che d1 = d2?3.

Basandoti su (b), il farmaco è efficace?4.

19. Un'azienda afferma che un composto erboristico incrementa l'intelligenza. Sisottopone a 25 soggetti un test standard per quoziente di intelligenza prima e dopo averassunto il composto. Le statistiche sono m1 = 105, s1 = 13, m2 = 110, s2 = 17, s12 = 190.Trova l'intervallo di confidenza al 90% per µ2 - µ1. Credi a quanto afferma l'azienda?

20. Sui dati di Fisher sugli iris, considera la lunghezza del petalo per i tipi Versicolor e

Stima nel modello normale bivariato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval5.html (5 di 6) [22/11/2001 18.00.20]

Page 594: Laboratorio virtuale di probabilità e statistica

Virginica.

Trova l'intervallo di confidenza al 90% per d2 / d1.1.

Assumendo d1 = d2, calcola l'intervallo di confidenza al 90% per µ2 - µ1.2.

Basandoti su (a), ti sembra ragionevole l'assunzione che d1 = d2?3.

21. Un'industria ha due macchine che producono una barra circolare il cui diametro (incm) è importante. Un campione di 100 barre prodotte dalla prima macchina ha media 10.3e deviazione standard 1.2, metre un campione di 100 barre prodotte dalla secondamacchina ha media 9.8 e deviazione standard 1.6.

Trova l'intervallo di confidenza al 90% per d2 / d1.1.

Assumendo d1 = d2, calcola l'intervallo di confidenza al 90% per µ2 - µ1.2.

Basandoti su (a), ti sembra ragionevole l'assunzione che d1 = d2?3.

Laboratorio virtuale > Stima intervallare > 1 2 3 4 [5] 6Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Stima nel modello normale bivariato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval5.html (6 di 6) [22/11/2001 18.00.20]

Page 595: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Stima intervallare > 1 2 3 4 5 [6]

6. Intervalli di confidenza Bayesiani

Definizioni

Al solito, iniziamo introducendo un esperimento casuale definito su un certo spaziocampionario e con misura di probabilità P. Nel modello statistico di base, abbiamo unavariabile casuale osservabile X a valori in S. In generale, X può avere struttura complessa.Per esempio, se l'esperimento consiste nell'estrarre n unità da una popolazione e registrarele misurazioni di interesse, allora

X = (X1, X2, ..., Xn)

dove Xi è il vettore di misurazioni per l'i-esima unità. Il caso più importante si ha quandoX1, X2, ..., Xn, sono indipendenti e identicamente distribuite. In questo caso, abbiamo uncampione casuale di dimensione n estratto dalla distribuzione comune.

Supponiamo inoltre che la distribuzione di X dipenda da un parametro a che assumevalori in uno spazio parametrico A. Normalmente, a è un vettore di parametri reali,cosicché A è sottinsieme di Rk per dati k e

a = (a1, a2, ..., ak).

Ricorda che nell'analisi Bayesiana, il parametro ignoto a è trattato come una variabilecasuale. In particolare, supponiamo che la densità condizionata del vettore di dati X dato asia f(x | a). Inoltre, assegnamo al parametro a distribuzione a priori con densità h. (Ladistribuzione a priori è scelta in modo da riflettee la nostra conoscenza, se ne abbiamo,relativamente al parametro). La densità congiunta del vettore dei dati e del parametro è

f(x | a) h(a), per x appartenente a S e a appartenente a A.

Inoltre la densità (non condizionata) di X è data dalla funzione g(x) ottenuta integrando(nel caso continuo) o sommando (nel caso discreto) la densità congiunta per i diversi aappartenenti ad A. Infine, la densità a posteriori di a dato x è (per il teorema di Bayes)

h(a | x) = f(x | a)h(a) / g(x) per x appartenente a S e a appartenente a A.

Sia ora A(X) un insieme di confidenza (cioè un sottinsieme dello spazio parametrico chedipende dalla variabile X, ma non da parametri ignoti). Una possibile definizione perl'insieme di confidenza Bayesiano al livello 1 - r richiede che

P[a A(X) | X = x] = 1 - r.

In questa definizione, solo a è stocastico, per cui la probabilità di cui sopra si puòcalcolare utilizzando la densità a posteriori h(a | x). Un'altra possibile definizione imponeche

Intervalli di confidenza Bayesiani

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval6.html (1 di 2) [22/11/2001 18.00.23]

Page 596: Laboratorio virtuale di probabilità e statistica

P[a A(X)] = 1 - r.

In questo caso, sia X che a sono casuali, per cui la probabilità dev'essere calcolatautilizzando la densità congiunta f(x | a)h(a). Al di là delle argomentazioni teoretiche, laprima definizione è senz'altro più semplice dal punto di vista computazionale, ed è quindila più utilizzata.

Confrontiamo ora l'approccio Bayesiano con quello classico. In quest'ultimo, il parametroè deterministico ma ignoto. Prima di raccogliere i dati, l'insieme di confidenza (che risultacasuale), contiene il parametro con probabilità 1 - r. Dopo aver raccolto i dati, l'insieme diconfidenza (calcolato) può contenere oppure no il parametro (e di solito non lo sappiamo).Al contrario, in un insieme di confidenza Bayesiano, il parametro stocastico a giacenell'insieme di confidenza (deterministico) con probabilità 1 - r.

La distribuzione di Bernoulli

Supponiamo che (I1, I2, ..., In) sia un campione casuale della distribuzione di Bernoullicon parametro p. Supponiamo inoltre che p abbia distribuzione a priori beta con parametria > 0, b > 0. Sia X = I1 + I2 + ··· + In.

1. Prova che, dato X = x, un intervallo di confidenza Bayesiano al livello 1 - r per p è[L(x), U(x)], dove L(x) è il quantile di ordine r / 2 e U(x) è il quantile di ordine 1 - r / 2della distribzione beta con parametri a + x, b+ (n - x).

2. In particolare, supponi di avere una moneta con probabilità ignota p che esca testa edi assgnare a p disribuzione a priori uniforme. Lanci poi la moneta 10 volte e ottieni 7teste. Calcola l'intervallo di confidenza Bayesiano al 90% per p.

La distribuzione di Poisson

Supponi che (X1, X2, ..., Xn) sia un campione casuale di dimensione n da unadistribuzione di Poisson con parametro µ. Supponi inoltre che µ abbia distribuzione apriori gamma con parametro di forma k e parametro di scala b. Sia Y = X1 + X2 + ··· +Xn.

3. Prova che, dato Y = y, un intervallo di confidenza Bayesiano al livello 1 - r per µ è[L(y), U(y)], dove L(y) è il quantile di ordine r / 2 e U(y) è il quantile di ordine 1 - r / 2della distribuzione gamma con parametro di forma k + y e parametro di scala b / (nb + 1).

4. In particolare, supponi che il numero di difetti in un manufatto abbia distribuzione diPoisson con parametro µ e di assegnare a µ distribuzione a priori esponenziale conparametro 1. Estraiamo 5 manufatti e osserviamo in totle 8 difetti. Calcola l'intervallo diconfidenza Bayesiano al 90%.

Laboratorio virtuale > Stima intervallare > 1 2 3 4 5 [6]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Intervalli di confidenza Bayesiani

http://www.ds.unifi.it/~stefanin/VL/VL_IT/interval/interval6.html (2 di 2) [22/11/2001 18.00.23]

Page 597: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Test di ipotesi > 1 [2] 3 4 5 6 7

2. Test per la media nel modello normale

Concetti preliminari

Supponiamo che X1, X2, ..., Xn sia un campione casuale della distribuzione normale con

media µ e varianza d2. In questo paragrafo impareremo a costruire test di ipotesi per µ,cioè una delle situazioni più rilevanti. Questo paragrafo è parallelo a quello sulla stimadella media nel modello normale nel capitolo sulla stima intervallare.

La procedura di test è diversa a seconda che si conosca oppure no d; per questa ragione, drappresenta un parametro di disturbo relativamete al problema del test per µ. Gli elementichiave nella costruzione del test sono la media campionaria e la varianza campionaria

M = (1 / n) i = 1, ..., n Xi.1.

S2 = [1 / (n - 1) i = 1, ..., n (Xi - M)2.2.

e le proprietà di queste statistiche quando la distribuzione è normale.

Test per µ con d noto

Supponiamo in primo luogo che la deviazione standard d sia nota; questa assunzione è disolito artificiale, ma non sempre (vedi l'esercizio 23). Lo spazio parametrico è quindi {µ:µ appartiene a R} e ogni ipotesi definisce sottinsiemi di questo spazio. La statistica testche utilizzeremo è

Z0 = (M - µ0) / (d / n1/2).

Nota che Z0 è la distanza della media campionaria da µ0 in unità di deviazioni standard.Pertanto, Z0 dovrebbe fornire buone informazioni sulle ipotesi relative a µ0.

1. Dimostra che Z0 ha distribuzione normale con

E(Z0) = (µ - µ0) / (d / n1/2).1.

var(Z0) = 1.2.

In particolare, se µ = µ0, Z0 è lo standard score e ha distribuzione normale standardizzata.Al solito, per p appartenente a (0, 1), indicheremo con zp il quantile di ordine p delladistribuzione normale standardizzata. Per dati valori di p, gli zp possono essere ricavatidall'applet quantile.

2. Prova che i seguenti test hanno livello di significatività r:

Test per la media nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis2.html (1 di 7) [22/11/2001 18.00.35]

Page 598: Laboratorio virtuale di probabilità e statistica

Rifiutare H0: µ = µ0 contro H1: µ µ0 se e solo se Z0 > z1 - r/2 o Z0 < -z1 - r/2.1.

Rifiutare H0: µ µ0 contro H1: µ > µ0 se e solo se Z0 > z1 - r.2.

Rifiutare H0: µ µ0 contro H1: µ < µ0 se e solo se Z0 < -z1 - r.3.

L'esercizio seguente è un caso particolare dell'equivalenza generale tra test di ipotesi estima intervallare che abbiamo esaminato nell'introduzione.

3. Per ognuno dei test presentati nell'esercizio 2, prova che non rifiutiamo H0 a livellodi significatività a se e solo se µ0 appartiene al corrispondente intervallo di confidenza allivello 1 - r.

Il p-value di questi test può essere calcolato in termini della funzione di ripartizione dellanormale standardizzata G.

4. Dimostra che i p-values dei test dell'esercizio 2 sono

2[1 - G(|Z0|)]1.

1 - G(Z0)2.

G(Z0)3.

5. Nell'esperimento del test della media, assicurati che sia selezionato sigma e iquantili z. Seleziona la distribuzione normale con deviazione standard 2, livello disignificatività 0.1, dimensione campionaria n = 20, e µ0 = 0. Per ciascuno dei seguenti tretest:

Per µ = -1.0, -0.75, -0.5, 0.25, 0, 0.25, 0.5, 0.75, 1, simula 1000 replicazioni,aggiornando ogni 10, e osserva la frequenza relativa del rifiuto di H0 per ciascunvalore.

1.

Per µ = 0, confronta la frequenza relativa col livello di significatività.2.

Basandoti su queste frequenze relative, disegna la funzione di potenza empirica.3.

6. Nell'esperimento del test della media, assicurati che sia selezionato sigma e iquantili z. Seleziona la distribuzione normale con deviazione standard 2, livello diconfidenza 0.90, e dimensione campionaria n = 10. Per ciascuno dei tre tipi di intervallodi confidenza, simula 20 replicazioni aggiornando ogni volta. Formula le corrispondentiipotesi e livelli di significatività e, per ogni replicazione, trova l'insieme di µ0 per cui sirifiuterebbe l'ipotesi nulla.

Curve di potenza

Ricorda che la funzione di potenza per un test su µ è Q(µ) = P(Rifiuta H0 | µ). Per i testdell'esercizio 2, possiamo calcolare esplicitamente le funzioni di potenza in termine dellafunzione di ripartizione G della distribuzione normale standardizzata.

7. Per il test H0: µ = µ0 contro H1: µ µ0 a livello di significatività r, prova i seguenti

Test per la media nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis2.html (2 di 7) [22/11/2001 18.00.35]

Page 599: Laboratorio virtuale di probabilità e statistica

risultati e traccia il grafico di Q:

Q(µ) = G[-z1 - r/2 + (µ - µ0) / (d / n1/2)] + G[-z1 - r/2 - (µ - µ0) / (d / n1/2)]1.

Q(µ) è simmetrico attorno a µ0.2.

Q(µ) è decrescente per µ < µ0 e crescente per µ > µ0.3.

Q(µ0) = r.4.

Q(µ) 1 per µ e Q(µ) 1 per µ - .5.

8. Per il test H0: µ µ0 contro H1: µ > µ0 a livello di significatività a, prova i seguentirisultati e traccia il grafico di Q.

Q(z) = G[-z1 - r + (µ - µ0) / (d / n1/2)]a.

Q è crescenteb.

Q(µ0) = r.c.

Q(µ) 0 per µ - e G(µ) 1 per µ .d.

9. Per il test H0: µ µ0 contro H1: µ < µ0 a livello di significatività r, prova i seguentirisultati e traccia il grafico di Q:

Q(z) = G[-z1 - a - (µ - µ0) / (d / n1/2)]a.

Q è decrescenteb.

Q(µ0) = r.c.

Q(µ) 1 per µ - e G(µ) 0 per µ .d.

10. Prova che, per ciascuno dei tre test, incrementare la dimensione campionaria n odecrementare la deviazione standard d restituisce un test uniformemente più potente.

Test distorti

Per l'ipotesi H0: µ = µ0 contro H1: µ µ0, il test bidirezionale simmetrico dell'esercizio 2è quello più utilizzato, ma non l'unico. Negli esercizi seguenti, analizzeremo la potenzadei test non simmetrici. Per p appartenente a (0, 1) considera il test

Rifiutare H0 se e solo se Z0 > z1 - pr o Z0 < z(1 - p) r.

Nota che, quando p = 1/2, il test concorda con quello simmetrico presentato nell'esercizio2.

11. Mostra che il test ha livello di significatività a per ogni p appartenente a (0, 1).

12. Prova che la funzione di potenza Q del test soddisfa le proprietà seguenti etracciane il grafico:

Q(µ) = G[-z1 - pr + (µ - µ0) / (d / n1/2)] + G[z(1 - p) r - (µ - µ0) / (d / n1/2)]1.

Q(µ) decresce per µ < m e cresce per µ > m dove m = µ0 + (z1 - pr + z(1 - p) r) n1/2 /2.

Test per la media nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis2.html (3 di 7) [22/11/2001 18.00.35]

Page 600: Laboratorio virtuale di probabilità e statistica

(2d).

Q(µ0) = a.3.

Q(µ) 1 per µ e Q(µ) 1 per µ - .4.

13. Prova che, se p cresce, il test diventa più potente per µ > µ0 e meno potente per µ <µ0.

Disegno di esperimenti

In molti casi, il primo passo è pianificare l'esperimento in modo che il livello disignificatività sia r e che il test abbia una certa potenza per una data alternativa.

14. Per un test monodirezionale, dimostra che la dimensione camopionaria nnecessaria per un test con livello di significatività r e potenza 1 - s per l'alternativa µ1 è

n = (z1 - r/2 + z1 - s)2 d2 / (µ1 - µ0)2.

Suggerimento: Poni la funzione di potenza uguale a 1 - s e risolvi rispetto a n.

15. Per un test bidirezionale, mostra che la dimensione campionaria n necessaria perun test con livello di significatività r e potenza 1 - s per l'alternativa µ1 èapprossimativamente

n = (z1 - r + z1 - s)2 d2 / (µ1 - µ0)2.

Suggerimento: Nella funzione di potenza per il test bidirezionale, trascura il primotermine se µ1 < µ0 e il secondo se µ1 > µ0.

Test per µ con d ignoto

Consideriamo ora il caso, più realistico, in cui sia d che µ sono ignoti. In questo caso, lospazio parametrico è {(µ, d): µ appartiene a R, d > 0} e tutte le ipotesi definisconosottinsiemi di questo spazio. La statistica test di base che useremo per i test su µ è

T0 = (M - µ0) / (S / n1/2).

Ricorda che, se µ = µ0, T0 ha distribuzione t di Student con n - 1 gradi di libertà; se µ µ0, la distribuzione di T0 è detta distribuzione t non centrata. Al solito, tk, p indicherà ilquantile di ordine p della distribuzione t con k gradi di libertà.

16. Prova che i test seguenti hanno livello di significatività r.

Rifiutare H0: µ = µ0 contro H1: µ µ0 se e solo se T0 > tn - 1, 1 - r/2 o T0 < -tn - 1, 1 -

r/2.1.

Rifiutare H0: µ µ0 contro H1: µ > µ0 se e solo se T0 > tn - 1, 1 - r.2.

Rifiutare H0: µ µ0 contro H1: µ < µ0 se e solo se T0 < -tn - 1, 1 - r.3.

Test per la media nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis2.html (4 di 7) [22/11/2001 18.00.35]

Page 601: Laboratorio virtuale di probabilità e statistica

Ricorda, di nuovo, il paragrafo sulla stima della media, nel capitolo sulla stimaintervallare. L'esercizio seguente è un caso speciale dell'equivalenza generale tra test diipotesi e stima intervallare che abbiamo già discusso nell'introduzione.

17. Per ciascuno dei test dell'esercizio 2, mostra che non rifiutiamo H0 a livello disignificatività a se e solo se µ0 giace nel corrispondente intervallo di confidenza al livello1 - r.

Il p-value di questi test può essere calcolato in termini della funzione di ripartizione Gn - 1della distribuzione t con n - 1 gradi di libertà.

18. Prova che i p-value dei test dell'esercizio 16 sono

2[1 - Gn - 1(|T0|)]1.

1 - Gn - 1(T0)2.

Gn - 1(T0)3.

19. Nell'esperimento del test della media, assicurati che siano selezionati S e i quantilit. Seleziona la distribuzione normale con deviazione standard 2, livello di significatività0.1, dimensione campionaria n = 20 e µ0 = 0. Per ciascuno dei tre test:

Per µ = -1, -0.75, -0.5, -0.25, 0, 0.25, 0.5, 0.75, 1, simula 1000 replicazioni,aggiornando ogni 10, e osserva la freuenza relativa del rifiuto di H0 per ciascunvalore.

1.

Per µ = 0, confronta la frequenza relativa col livello di significatività.2.

Basandoti su queste frequenze relative, disegna la curva di potenza empirica.3.

20.Nell'esperimento del test della media, assicurati che sia selezionato S e i quantili t.Seleziona la distribuzione normale con deviazione standard 2, livello di confidenza 0.90, edimensione campionaria n = 10. Per ciascuno dei tre tipi di intervallo di confidenza,simula 20 replicazioni aggiornando ogni volta. Formula le corrispondenti ipotesi e livellidi significatività e, per ogni replicazione, trova l'insieme di µ0 per cui si rifiuterebbel'ipotesi nulla.

La funzione di potenza per i test dell'esercizio 16 possono essere calcolati esplicitamentein termini della funzione di ripartizione della distribuzione t non centrata.Qualitativamente, i grafici delle funzioni di potenza sono simili al caso in cui µ è notoriportati negli esercizi 7, 8 e 9.

Se è noto un limite superiore d0 per la deviazione standard d, si possono ottenere stimeconservative della dimensione campionaria necessaria per un dato livello di confidenza eun dato margine di errore utilizzando i metodi degli esercizi 14 e 15.

Distribuzioni non normali

Una delle assunzioni fondamentali fatte finora è che la distribuzione sottostante sia

Test per la media nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis2.html (5 di 7) [22/11/2001 18.00.35]

Page 602: Laboratorio virtuale di probabilità e statistica

normale. Ovviamente, nelle applicazioni statistiche reali, è improbabile sapere qualcosasulla distribuzione sottostante. Supponiamo che la distribuzione non sia normale. Se n èrelativamente grande, la distribuzione della media campionaria sarà approssimativamentenormale per il teorema limite centrale, e pertanto le nostre conclusioni dovrebbero restareapprossimativamente valide. Gli esercizi seguenti ti danno la possibilità di verificare larobustezza della procedura.

21. Nell' esperimento di test della media, seleziona la distribuzione gamma conparametro di forma 1 e parametro di scala 1. Per i tre diversi test e per vari livelli disignificatività, dimensioni campionarie e valori di µ0, simula 1000 replicazioniaggiornando ogni 10. Per ciascuna configurazione, osserva la frequenza relativa dei rifiutidi H0. Quando H0 è vera, confronta la frequenza relativa col livello di significatività.

22. Nell' esperimento di test della media, seleziona la distribuzione uniforme su (0, 4).Per i tre diversi test e per vari livelli di significatività, dimensioni campionarie e valori diµ0, simula 1000 replicazioni aggiornando ogni 10. Per ciascuna configurazione, osserva lafrequenza relativa dei rifiuti di H0. Quando H0 è vera, confronta la frequenza relativa collivello di significatività.

La dimensione minima di n affinché la procedura funzioni correttamente dipende,ovviamente, dalla distribuzione sottostante; più tale distribuzione differisce dalla normale,più grande dev'essere n. Fortunatamente, la convergenza prevista dal teorema limitecentrale è rapida e quindi, come hai già visto negli esercizi, possiamo cavarcela, nellamaggior parte dei casi, con campioni relativamente piccoli (30 o più unità).

Esercizi numerici

23. La lunghezza di un certo pezzo meccanico dev'essere 10 centimetri. A causa diimperfezioni nel processo produttivo, però, la lunghezza risulta essere una variabilecasuale. La deviazione standard è causata da fattori inerenti il processo produttivo cherisultano costanti nel tempo. Dai dati storici si sa che la deviazione standard è 0.3. Lamedia, d'altra parte, dipende da vari parametri e può variare di frequente. Siao interessati atestare H0: µ = 10 contro H1: µ 10.

Supponi che un campione di 100 pezzi abbia media 10.1. Esegui al test al livello disignificatività del 10%.

1.

Calcola il p-value per i dati in (a).2.

Calcola la potenza del test in (a) a µ = 10.05.3.

Calcola la dimensione campionaria approssimativa necessaria per avere livello disignificatività del 10% e potenza 80% per µ = 10.05.

4.

24. Un pacchetto di patatine è marchiato per 250 grammi. Il peso (in grammi) è peròuna variabile casuale. Supponiamo che un campione di 75 pacchetti abbia media 248 e

deviazione standard 5. Testa, al livello di significatività dello 0.05, H0: µ 250 controH1: µ < 250.

Test per la media nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis2.html (6 di 7) [22/11/2001 18.00.35]

Page 603: Laboratorio virtuale di probabilità e statistica

25. In un'azienda di telemarketing la durata delle telefonate è una variabile casuale. Uncampione di 50 telefonate ha media 310 e deviazione standard 25. Possiamo concludere,al livello di significatività dello 0.1, che µ > 300?

26. In una certa fattoria, il peso di una pesca (in once) è una variabile casuale. Uncampione di 100 pesche ha media 8.2 e deviazione standard 0.5. Possiamo dire, al livellodi significatività di 0.05, che µ > 8?

27. Il salario orario per un certo tipo di lavoro edile è una variabile casuale condeviazione standard 1.25. Su un campione di 25 lavoratorio, il salario medio è di 6.75$.Possiamo concludere, al livello di significatività di 0.01, che µ < 7.00?

28. Usa i dati Michelson, per sottoporre a test l'ipotesi che la velocità della luce siamaggiore di 730 (+299000) km/sec, al livello di significatività 0.1.

29. Usa i dati di Cavendish, per sottoporre a test l'ipotesi che la densità della terra siaminore di 5.5 volte la densità dell'acqua, al livello di significatività 0.05.

30. Usa i dati di Short, per sottoporre a test l'ipotesi che la parallasse del sole differiscada 9 secondi di grado, al livello di significatività 0.1.

31. Sui dati Fisher sugli iris, esegui i seguenti test, al livello di significatività 0.1:

La lunghezza media del petalo di Setosa è diversa da 15 mm.1.

La lunghezza media del petalo di Verginica è maggiore di 52 mm.2.

La lunghezza media del petalo di Versicolor è minore di 42 mm.3.

Laboratorio virtuale > Test di ipotesi > 1 [2] 3 4 5 6 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Test per la media nel modello normale

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis2.html (7 di 7) [22/11/2001 18.00.35]

Page 604: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Test di ipotesi > 1 2 3 [4] 5 6 7

4. Test nel modello di Bernoulli

Concetti preliminari

Supponiamo che I1, I2, ..., In sia un campione casuale della distribuzione di Bernoulli conparametro ignoto p appartenente a (0, 1). Si tratta pertanto di variabili indicatoreindipendenti che assume valori 1 e 0 con probabilità rispettivamente p e 1 - p. Di solito,questo modello si presenta in uno dei seguenti contesti:

Si ha un evento di interesse in un esperimento semplice, con probabilità ignota p. Sireplica l'esperimento n volte e si definisce Ii = 1 se e solo se l'evento si è verificatonell'i-esima prova.

1.

Si ha una popolazione di unità di tipo diverso; la proporzione di oggetti di unparticolare tipo di interesse è p, ignota. Si estraggono n unità dalla popolazioneeponiamo Ii = 1 se e solo sel'i-esima unità è del tipo di interesse. Se l'estrazione ècon reinserimento, queste variabili formano un campione casuale delladistribuzione di Bernoulli. Se l'estrazione è senza reinserimento, le variabili sonodipendenti, ma il modello di Bernoulli può restare valido in senso approssimato.Per ulteriori approfondimenti, confronta il capitolo sui modelli di campionamentofinito.

2.

In questo paragrafo, impareremo a costruire test di ipotesi per il parametro p. Questoparagrafo è parallelo a quello sulla stima del modello di Bernoulli nel capitolo sulla stimaintervallare.

Test per p

Lo spazio parametrico è {p: 0 < p < 1}, e ogni ipotesi definisce sottinsiemi di questospazio. Ricorda che

N = I1 + I2 + ··· + In

ha distribuzione binomiale con parametri n e p e ha media e varianza

E(N) = np, var(N) = np(1 - p).

Inoltre, N è sufficiente per p, per cui è naturale costruire una statistica test a partire da N.Per r appartenente a (0, 1), sia br(n, p) il quantile di ordine r della distribuzione binomialecon parametri n e p. Poiché la distribuzione binomiale è discreta, si possono consideraresolo alcuni specifici quantili.

1. Prova che i seguenti test hanno livello di significativtà r:

Rifiutare H0: p = p0 contro H1: p p0 se e solo se N < br/2(n, p0) o N > b1 - r/2(n,1.

Test nel modello di Bernoulli

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis4.html (1 di 5) [22/11/2001 18.00.43]

Page 605: Laboratorio virtuale di probabilità e statistica

p0).

Rifiutare H0: p p0 contro H1: p > p0 se e solo se N > b1 - r(n, p0).2.

Rifiutare H0: p p0 contro H1: p < p0 se e solo se N < br(n, p0).3.

Se n è grande, la distribuzione di N è approssimativamente normale, per il teorema limitecentrale. Pertanto, un test normale approssimato può essere costruito utilizzando lastatistica test

Z0 = (N - np0) / [np0(1 - p0)]1/2.

Nota che Z0 è lo standard score di N sotto l'ipotesi nulla. Al solito, per r appartenente a (0,1), sia zr il quantile di ordine r della distribuzione normale standardizzata.

2. Mostra che, se n è grande, i seguenti test hanno livello di significativitàapprossimato r:

Rifiutare H0: p = p0 contro H1: p p0 se e solo se Z0 > z1 - r/2 o Z0 < -z1 - r/2.1.

Rifiutare H0: p p0 contro H1: p > p0 se e solo se Z0 > z1 - r.2.

Rifiutare H0: p p0 contro H1: p < p0 se e solo se Z0 < -z1 - r.3.

3. Nell' esperimento del test della proporzione, poni H0: p = p0, n = 10, livello disignificatività 0.1, e p0 = 0.5.

Per ogni p = 0.1, 0.2, ..., 0.9, simula 1000 replicazioni, aggiornando ogni 10, eosserva la frequenza relativa di rifiuto di H0 per ciascun valore di p.

1.

Per p = 0.5, confronta la frequenza relativa col livello di significatività.2.

Basandoti su tali frequenze relative, traccia il grafico della funzione di potenzaempirica.

3.

4. Nell' esperimento del test della proporzione, ripeti l'esercizio precedente per n = 20.

5. Nell' esperimento del test della proporzione, poni H0: p p0, n = 15, livello disignificatività 0.05, e p0 = 0.3.

Per ogni p = 0.1, 0.2, ..., 0.9, simula 1000 replicazioni, aggiornando ogni 10, eosserva la frequenza relativa di rifiuto di H0 per ciascun valore di p.

1.

Per p = 0.3, confronta la frequenza relativa col livello di significatività.2.

Basandoti su tali frequenze relative, traccia il grafico della funzione di potenzaempirica.

3.

6. Nell' esperimento del test della proporzione, ripeti l'esercizio precedente per n = 30.

7. Nell' esperimento del test della proporzione, poni H0: p p0, n = 20, livello disignificatività 0.01, e p0 = 0.6.

Test nel modello di Bernoulli

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis4.html (2 di 5) [22/11/2001 18.00.43]

Page 606: Laboratorio virtuale di probabilità e statistica

Per ogni p = 0.1, 0.2, ..., 0.9, simula 1000 replicazioni, aggiornando ogni 10, eosserva la frequenza relativa di rifiuto di H0 per ciascun valore di p.

1.

Per p = 0.6, confronta la frequenza relativa col livello di significatività.2.

Basandoti su tali frequenze relative, traccia il grafico della funzione di potenzaempirica.

3.

8. Nell' esperimento del test della proporzione, ripeti l'esercizio precedente per n = 50.

Test sul segno

Supponiamo ora di avere un semplice esperimento casuale con una variabile casuale diinteresse X. Assumiamo che X abbia distribuzione continua. Sia p0 un dato numeroappartenente a (0, 1), e sia m il quantile di ordine p0 della distribuzione di X. Quindi, perdefinizione,

p0 = P(X < m).

Supponi che m sia ignoto, e che vogliamo costruire test di ipotesi per m. Per un datovalore m0 da testare, sia

p = P(X < m0).

9. Mostra che

m = m0 se e solo se p = p0.1.

m < m0 se e solo se p > p0.2.

m > m0 se e solo se p < p0.3.

Al solito, ripetiamo n volte l'esperimento per generare un campione casuale di dimensionen estratto dalla distribuzione di X:

X1, X2, ..., Xn.

Sia Ii la variabile indicatore dell'evento {Xi < m0} for i = 1, 2, ..., n.

10. Dimostra che I1, I2, ..., In è un campione casuale di dimensione n dalladistribuzione di Bernoulli con parametro p.

Sulla base degli esercizi 9 e 10, i test per il quantile ignoto m possono essere trasformatiin test per il parametro di Bernoulli p, e quindi i test ricavati in precedenza sonoutilizzabili a questo proposito. Questa procedura è detta test sul segno, poiché, alla fine, siregistra solo il segno di Xi - m0 per ogni i. Questa procedura è anche un esempio di testnon parametrico, poiché non si fanno assunzioni sulla distribuzione di X (a parte lacontinuità). In particolare, non dobbiamo assumere che la distribuzione di X appartenga auna particolare famiglia parametrica.

Il caso particolare più importante di test sul segno è il caso in cui p0 = 1/2; ovvero il test

Test nel modello di Bernoulli

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis4.html (3 di 5) [22/11/2001 18.00.43]

Page 607: Laboratorio virtuale di probabilità e statistica

sul segno della mediana. Se si sa che la distribuzione di X è simmetrica, media e medianacoincidono. In questo casi, i test per il segno della mediana e della media coincidono.

11. Nell'esperimento del test del segno, selelziona la distribuzione normale con media0 e deviaizone standard 2. Poni la dimensione campionaria a 10 e il livello disignificatività a 0.1. Per ciascuno dei 9 valori di m0, simula 1000 replicazioni,aggiornando ogni 10.

Per m0 = m, riporta la stima empirica del livello di significatività del test econfronta con 0.1.

1.

Negli altri casi, riporta la stima empirica della potenza del test.2.

12. Nell'esperimento del test del segno, seleziona la distribuzione uniformesull'intervallo [0, 5] e poni la dimensione campionaria a 20 e il livello di significatività a0.05. Per ciascuno dei 9 valori di m0, simula 1000 replicazioni, aggiornando ogni 10.

Per m0 = m, riporta la stima empirica del livello di significatività del test econfronta con 0.05.

1.

Negli altri casi, riporta la stima empirica della potenza del test.2.

13. Nell'esperimento del test del segno, seleziona la distribuzione gamma conparametro di forma a = 2 e parametro di scala r = 1 . Poni la dimensione campionaria a 30e il livello di significatività a 0.025. Per ciascuno dei 9 valori di m0, simula 1000replicazioni, aggiornando ogni 10.

Per m0 = m, riporta la stima empirica del livello di significatività del test econfronta con 0.025.

1.

Negli altri casi, riporta la stima empirica della potenza del test.2.

Esercizi numerici

14. Su un campione di 1000 elettori in un cero collegio, 427 preferiscono il candidatoX. Al livello 0.1, questo è sufficiente per concludere che più del 40% degli elettoripreferiscono X?

15. Si lancia una moenta 500 volte e si ottengono 302 teste. Sottoponi a test, allo 0.05,il fatto che la moneta sia squilibrata.

16. Si testa un campione di 400 chip di memoria e si osserva che 30 sono difettosi.Sottoponi a test, al livello 0.05, il fatto che la proporzione dei chip difettosi sia inferioreallo 0.1.

17. Si somministra un nuovo farmaco a 50 pazienti, ed esso si rivela efficace in 42casi. Sottoponi a test, allo 0.1, il fatto che il tasso di successo del nuovo farmaco siasuperiore a 0.8.

18. Sui dati M&M, sottoponi a test le seguenti ipotesi alternative al livello disignificatività 0.1:

Test nel modello di Bernoulli

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis4.html (4 di 5) [22/11/2001 18.00.43]

Page 608: Laboratorio virtuale di probabilità e statistica

La proporzione di M&Ms rosse è diversa da 1/6.1.

La proporzione di M&Ms verdi è minore di 1/62.

La proporzione di M&M gialle è maggiore di 1/63.

19. Sui dati M&M, esegui un test per valutare se il peso mediano è superiore a 47.9grammi, al livello 0.1.

20. Esegui, sui dati di Fisher sugli iris, i seguenti test, al livello 0.1:

La lunghezza mediana di un petalo di Setosa è diversa da 15 mm.1.

La lunghezza mediana di un petalo di Virginica è maggiore di 52 mm.2.

La lunghezza mediana di un petalo di Versicolor è minore di 42 mm.3.

Laboratorio virtuale > Test di ipotesi > 1 2 3 [4] 5 6 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Test nel modello di Bernoulli

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis4.html (5 di 5) [22/11/2001 18.00.43]

Page 609: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Test di ipotesi > 1 2 3 4 [5] 6 7

5. Test nel modello normale bivariato

In questo paragrafo, studieremo il test di ipotesi nel modello normale a due campioni e nelmodello normale bivariato. Questa paragrafo è parallelo a quello sulla stima del modellonormale bivariato nel capitolo sulla stima intervallare.

Il modello normale a due campioni

Supponiamo in primo luogo che X = (X1, X2, ..., Xn1) sia un campione casuale di

dimensione n1 della distribuzione normale con media µ1 e varianza d12 e che Y = (Y1, Y2,

..., Yn2) sia un campione casuale di dimensione n2 della distribuzione normale con media

µ2 e varianza d22. Supponiamo inoltre che i campioni X e Y siano indipendenti.

Questa situazione si verifica di frequente quando le variabili casuali rappresentano dellemisurazioni di interesse sulle unità della popolazione, e i campioni corrispondono a duediversi trattamenti. Per esempio, possiamo essere interessati alla pressione sanguigna diuna certa popolazione di pazienti. Il vettore X registra la pressione sanguigna di uncampione di controllo, mentre il vettore Y registra la pressione sanguigna di un campionetrattato con un nuovo farmaco. Similmente, possiamo essere interessati al rendimento diuna piantagione di grano. Il vettore X registrerebbe allora il rendimento di unappezzamento trattato con un tipo di fertilizzante, mentre il vettore Y quello di unappezzamento trattato con un altro tipo di fertilizzante.

Di solito, si è interessati a un confronto tra i parametri (media o varianza) per le duedistribuzioni. In questo paragrafo, impareremo a costruire test per il rapporto tra varianzee per la differenza tra le medie. Analogamente a quanto abbiamo già visto per leprocedure di stima, la costruzione del test è diversa a seconda che i parametri siano notioppure no. Di nuovo, gli elementi fondamentali nella costruzione dei test sono le mediecampionarie, le varianze campionarie e le proprietà di queste statistiche quando ladistribuzione è normale. Useremo la seguente notazioni:

M1 = (1 / n1) i = 1, ..., n1 Xi.1.

W12 = (1 / n1) i = 1, ..., n1 (Xi - µ1)2.2.

S12 = [1 / (n1 - 1)] i = 1, ..., n1 (Xi - M1)2.3.

M2 = (1 / n2) i = 1, ..., n2 Xi.4.

W22 = (1 / n2) i = 1, ..., n2 (Xi - µ2)2.5.

Test nel modello normale bivariato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis5.html (1 di 5) [22/11/2001 18.00.51]

Page 610: Laboratorio virtuale di probabilità e statistica

S22 = [1 / (n2 - 1)] i = 1, ..., n2 (Xi - M2)2.6.

Test per d22 / d1

2 con µ1 e µ2 noti

Consideriamo in primo luogo considereremo il test per il rapporto tra varianze d22 / d1

2

quando le medie µ1 e µ2 sono note. Ovviamente questa assunzione è spesso irrealistica. Lastatistica test è

F0 = (W12 / W2

2)a0 dove a0 > 0.

1. Mostra che se d22 / d1

2 = a0 allora F0 ha distribuzione F con n1 gradi di libertà alnumeratore e n2 gradi di libertà al denominatore.

Per p appartenente a (0, 1) e per m > 0 e k >0, sia fm, n, p il quantile di ordine p delladistribuzione F con m gradi di libertà al numeratore e n gradi di libertà al denominatore.

2. Mostra che i seguenti test hanno livello di significatività r:

Rifiutare H0: d22 / d1

2 = a0 contro H1: d22 / d1

2 a0 se e solo se F0 > fn1, n2, 1 - r/2 oF0 < fn1, n2, a/21, n2, a/2.

1.

Rifiutare H0: d22 / d1

2 a0 contro H1: d22 / d1

2 > a0 se e solo se F0 < fn1, n2, r.2.

Rifiutare H0: d22 / d1

2 a0 contro H1: d22 / d1

2 < a0 se e solo se F0 > fn1, n2, 1 - r.3.

3. Per ciascuno dei test dell'esercizio 2, prova che non rifiutiamo H0 a livello disignificatività r se e solo se a0 appartiene al corrispondente al intervallo di confidenza allivello 1 - r.

Test per d22 / d1

2 con µ1 e µ2 ignoti

Consideriamo ora il test per il rapporto tra le varianze d22 / d1

2 sotto l'assunzione, piùrealistica che le medie µ1 e µ2 siano ignote. In questo caso, la statistica test è

F0 = (S12 / S2

2)a0 dove a0 > 0.

4. Mostra che se d22 / d1

2 = a0 allora F0 ha distribuzione F con n1 - 1 gradi di libertà alnumeratore e n2 - 1 gradi di libertà al denominatore.

5. Mostra che i seguenti test hanno livello di significatività r:

Rifiutare H0: d22 / d1

2 = a0 contro H1: d22 / d1

2 a0 se e solo se F0 > fn1 - 1, n2 - 1, 1

- r/2 o F0 < fn1 - 1, n2 - 1, r/2.1.

Rifiutare H0: d22 / d1

2 a0 contro H1: d22 / d1

2 > a0 se e solo se F0 < fn1 - 1, n2 - 1, r.2.

Test nel modello normale bivariato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis5.html (2 di 5) [22/11/2001 18.00.51]

Page 611: Laboratorio virtuale di probabilità e statistica

Rifiutare H0: d22 / d1

2 a0 contro H1: d22 / d1

2 < a0 se e solo se F0 > fn1 - 1, n2 - 1, 1

- r.3.

6. Per ciascuno dei test dell'esercizio 5, prova che non rifiutiamo H0 a livello disignificatività r se e solo se a0 appartiene al corrispondente al intervallo di confidenza allivello 1 - r.

Test per µ2 - µ1 con d1 e d2 noti

Consideriamo ora il problema della stima della differenza tra medie µ2 - µ1 sottol'assunzione che le deviazioni standard d1 e d2 siano note. Al solito, questa assunzione èspesso irrealistica. La statistica test è

Z0 = [(M2 - M1) - a0] / (d12 / n1 + d2

2 / n2)1/2.

7. Mostra che Z0 ha distribuzione normale con media a0 - (µ2 - µ1) e varianza 1.

Al solito, indichiamo con zp il quantile di ordine p della distribuzione normalestandardizzata. Per dati valori di p, i valori zp possono essere ricavti dall'applet quantile.

8. Mostra che i seguenti test hanno livello di significatività r:

Rifiutare H0: µ2 - µ1 = a0 contro H1: µ2 - µ1 a0 se e solo se Z0 > z1 - r / 2 o Z0 <-z1 - r / 2.

a.

Rifiutare H0: µ2 - µ1 a0 contro H1: µ2 - µ1 > a0 se e solo se Z0 > z1 - r.b.

Rifiutare H0: µ2 - µ1 a0 contro H1: µ2 - µ1 < a0 se e solo se Z0 < -z1 - r.c.

9. Per ciascuno dei test dell'esercizio 8, prova che non rifiutiamo H0 a livello disignificatività r se e solo se a0 appartiene al corrispondente al intervallo di confidenza allivello 1 - r.

Test per µ2 - µ1 con d1 e d2 ignoti

Consideriamo infine i test per la differenza tra le medie sotto l'assunzione, più realistica,che le deviazioni standard d1 e d2 siano ignote ma uguali:

d1 = d2 = d.

Questa assunzione è ragionevole se la variabilità nella misurazione delle variabili noncambia quando si applicano diversi trattamenti alle unità della popolazione. Ricorda chela stima raggruppata della varianza comune d2 è

S2 = [(n1 - 1)S12 + (n2 - 1)S2

2] / (n1 + n2 - 2).

La statistica test che utilizzeremo è

Test nel modello normale bivariato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis5.html (3 di 5) [22/11/2001 18.00.51]

Page 612: Laboratorio virtuale di probabilità e statistica

T0 = [(M2 - M1) - a0] / [S (1 / n1 + 1 / n2)1/2].

10. Prova che, se µ2 - µ1 = a0, allora T0 ha distribuzione t con n = n1 + n2 - 2 gradi dilibertà.

Al solito, per k > 0 e p appartenente a (0, 1) sia tk, p il quantile di ordine p delladistribuzione t con k gradi di libertà. Per dati valori di k e p, i valori tk, p si ottengonodall'applet quantile.

11. Mostra che i seguenti test hanno livello di significatività r:

Rifiutare H0: µ2 - µ1 = a0 contro H1: µ2 - µ1 a0 se e solo se T0 > tn, 1 - r / 2 o T0 <-tn, 1 - r / 2.

a.

Rifiutare H0: µ2 - µ1 a0 contro H1: µ2 - µ1 > a0 se e solo se T0 > tn, 1 - r.b.

Rifiutare H0: µ2 - µ1 a0 contro H1: µ2 - µ1 < a0 se e solo se T0 < -tn, 1 - r.c.

12. Per ciascuno dei test dell'esercizio 11, prova che non rifiutiamo H0 a livello disignificatività r se e solo se a0 appartiene al corrispondente al intervallo di confidenza allivello 1 - r.

Test nel modello normale bivariato

Consideriamo adesso un modello simile a quello normale a due campioni, ma molto piùsemplice. Supponiamo che

(X1, Y1), (X2, Y2), ..., (Xn, Yn)

sia un campione casuale di dimensione n della distribuzione normale bivariata con

E(X) = µ1, E(Y) = µ2, var(X) = d12, var(Y) = d2

2, cov(X, Y) = d1,2.

Quindi, invece che una coppia di campioni, abbiamo un campione di coppie. Questo tipodi modello si presenta di frequente negli esperimenti prima e dopo, in cui si registra unamisura di interesse su un campione di n unità della popolazione prima e dopo un certotrattamento. Per esempio, possiamo registrare la pressione sanguigna su un campione di npazienti prima e dopo la somministrazione di un certo farmaco.

13. Mostra che Y1 - X1, Y2 - X2, ..., Yn - Xn è un campione casuale di dimensione n

dalla distribuzione normale con media µ2 - µ1 e varianza d2 = d12 + d2

2 - 2d1,2.

Le differenze quindi seguono il modello normale a un campione che abbiamo giàesaminato. In particolare, per i test per µ2 - µ1, controlla il paragrafo sul test per la media

nel modello normale, per i test per d2, quello sui test per la varianza nel modello normale.

Esercizi numerici

Test nel modello normale bivariato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis5.html (4 di 5) [22/11/2001 18.00.51]

Page 613: Laboratorio virtuale di probabilità e statistica

14. Si sta sviluppando un nuovo farmaco per ridurre un certo componente del sangue.Un campione di 36 pazienti riceve un placebo, mentre a 49 pazienti è somministrato ilfarmaco. Le statistiche (in mg) sono m1 = 87, s1 = 4, m2 = 63, s2 = 6. Esegui i seguentitest al livello di significatività del 10%:

H0: d1 = d2 contro H1: d1 d2.1.

H0: µ1 µ2 contro H1: µ1 > µ2 (assumendo d1 = d2).2.

Basandoti su (b), il farmaco ti sembra efficace?3.

15. Un'azienda afferma che un composto erboristico incrementa l'intelligenza. Sisottopone a 25 soggetti un test standard per quoziente di intelligenza prima e dopo averassunto il composto. Le statistiche sono m1 = 105, s1 = 13, m2 = 110, s2 = 17, s12 = 190.Al livello di significatività del 10%, credi a quanto afferma l'azienda?

16. Sui dati di Fisher sugli iris, considera la variabile lunghezza del petalo per icampioni di iris Versicolor e Virginica. Esegui i seguenti test al livello di significativitàdel 10%:

H0: d1 = d2 contro H1: d1 d2.1.

H0: µ1 µ2 contro H1: µ1 > µ2 (assumendo d1 = d2).2.

17. Un'industria ha due macchine che producono una barra circolare il cui diametro (incm) è importante. Un campione di 100 barre prodotte dalla prima macchina ha media 10.3e deviazione standard 1.2, metre un campione di 100 barre prodotte dalla secondamacchina ha media 9.8 e deviazione standard 1.6.

H0: d1 = d2 contro H1: d1 d2.1.

H0: µ1 = µ2 contro H1: µ1 µ2 (assumendo d1 = d2).2.

Laboratorio virtuale > Test di ipotesi > 1 2 3 4 [5] 6 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Test nel modello normale bivariato

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis5.html (5 di 5) [22/11/2001 18.00.51]

Page 614: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Test di ipotesi > 1 2 3 4 5 [6] 7

6. Test del rapporto di verosimiglianza

Concetti preliminari

Al solito, iniziamo con l'introdurre un esperimento casuale definito su un certo spaziocampionario e con misura di probabilità P. Nel modello statistico di base, abbiamo unavariabile casuale osservabile X che assume valori in S. In generale, X può avere strutturacomplessa. Ad esempio, se l'esperimento consiste nell'estrarre n unità da una popolazionee registrare le varie misure di interesse, allora

X = (X1, X2, ..., Xn)

dove Xi è il vettore di misurazioni per l'i-esima unità. Il caso più importante si ha quandoX1, X2, ..., Xn, sono indipendenti e identicamente distribuite. Si ha allora un campionecasuale di dimensione n dalla distribuzione comune.

Nelle sezioni precedenti, abbiamo introdotto dei test sui parametri basandoci sullestatistiche naturali. In altri casi, tuttavia, si può avere interesse a test non parametrici, opuò non esistere una statistica naturale da cui muovere. Serve pertanto un metodogenerale per costruire statistiche test. Inoltre, non sappiamo ancora se i test che abbiamofinora presentato sono i migliori, nel senso di massimizzare la potenza per l'insieme diipotesi alternative. In questo e nel prossimo paragrafo, ci occuperemo di entrambi questiaspetti. Le funzioni di verosimiglianza, simili a quelle usate nella stima di massimaverosimiglianza, avranno un ruolo chiave.

Test di ipotesi semplici

Supponiamo che X abbiamo due possibili distribuzioni. Le ipotesi semplici sono

H0: X ha densità f0; H1: X ha densità f1.

Il test che costruiremo è basato sulla seguente idea: se si osserva x, allora la condizionef1(x) > f0(x) testimonia a favore dell'ipotesi alternativa; la diseguaglianza opposta, invece,testimonia contro l'ipotesi alternativa. Poniamo

L(x) = f0(x) / f1(x) per x appartenente a S.

La funzione L è la funzione del rapporto di verosimiglianza per l'ipotesi e L(X) è lastatistica rapporto di verosimiglianza. Riprendendo la nostra osservazione precedente,osserviamo che valori piccoli di L sono prove a favore di H1. Sembra quindi ragionevoleche il rapporto di verosimiglianza possa essere una buona statistica test, e che si debbanoconsiderare test del seguente tipo, con k costante:

Rifiutare H0 se e solo se L(X) k.

Test del rapporto di verosimiglianza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis6.html (1 di 5) [22/11/2001 18.00.59]

Page 615: Laboratorio virtuale di probabilità e statistica

1. Prova che il livello di significatività del test è

r = P[L(X) k | H0].

Al solito, possiamo cercare di costruire un test scegliendo k tale che r sia un valoredesiderato. Se X è discreta, ciò è possibile solo se r è un valore della funzione diripartizione di L(X).

Un caso particolare di particolare importanza si ha quando la funzione di densità f(x | a) diX dipende da un parametro a che può assumere due valori. Lo spazio parametrico è quindiA = {a0, a1}. In questo caso, le ipotesi sono

H0: a = a0 contro H1: a = a1,

e la funzione rapporto di verosimiglianza è L(x) = f(x | a0) / f(x | a1).

Il lemma di Neyman-Pearson

L'esercizio seguente introduce il lemma di Neyman-Pearson, e dimostra che il testintrodotto poc'anzi è il più potente. Sia

R = {x S: L(x) k}.

2. Usa la definizione di L e quella di R per mostrare che

P(X B | H0) k P(X B | H1) per B R.1.

P(X B | H0) k P(X B | H1) per B Rc.2.

3. Prova che, se A R, allora

P(X R | H1) - P(X B | H1) (1 / k) [P(X R | H0) - P(X B | H0)].

Suggerimento: Scrivi R = (R B) (R Bc) e B = (B R) (B Rc). Usal'additività della probabilità e il risultato dell'esercizio 1.

4. Considera i test con regioni di rifiuto R e B. Usa l'esercizio 3 per mostrare che, se ladimensione di B non è maggiore di quella di R, allora il test con regione di rifiuto R è piùpotente:

P(X R | H1) P(X B | H1).

Il lemma di Neyman-Pearson è un risultato molto gradevole, ed è più utile di quanto possainizialmente sembrare. In molti casi importanti, lo stesso test più potente funzione su uninsieme di alternative, ed è quindi uniformemente più potente su questo insieme.Considereremo qui di seguito alcuni di questi casi particolari.

Test per il modello esponenziale

Test del rapporto di verosimiglianza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis6.html (2 di 5) [22/11/2001 18.00.59]

Page 616: Laboratorio virtuale di probabilità e statistica

Supponi che X = (X1, X2, ..., Xn) sia un campione casuale della distribuzioneesponenziale con parametro di scala b. Le variabili casuali possono rappresentare ledurate di un campione di apparecchiature. Vogliamo sottoporre a test la seguente ipotesisemplice, dove b0 e b1 > 0 sono valori dati e distinti.

H0: b = b0 contro H1: b = b1.

5. Prova che la statistica rapporto di verosimiglianza è

L(X) = (b1 / b0)n exp[(1 / b1 - 1 / b0)Y] dove Y = X1 + X2 + ··· + Xn.

Ricorda che Y ha distribuzione gamma con parametro di forma n e parametro di scala b.Indicheremo il quantile di ordine r di questa distribuzione con yr(n, b).

6. Supponi che b1 > b0. Prova che il test più potente a livello r è

Rifiutare H0 se e solo se Y > y1 - r(n, b0).

7. Supponi che b1 < b0. Prova che il test più potente a livello r è

Rifiutare H0 se e solo se Y < yr(n, b0).

Osserva che il test degli esercizi 6 e 7 non dipende dal valore di b1. Questo fatto,accoppiato alla monotonicità della funzione di potenza, può essere utilizzato per mostrareche i test sono uniformemente più potenti per i test monodirezionali consueti.

8. Prova che il test degli esercizi 6 e 7 è uniformemente più potente per le ipotesi

H0: b b0 contro H1: b > b0.

9. Prova che il test dell'esercizio 7 è uniformemente più potente per le ipotesi

H0: b b0 contro H1: b < b0.

Test nel modello di Bernoulli

Supponi che I = (I1, I2, ..., In) sia un campione casuale della distribuzione di Bernoulli conparametro p. Il campione può rappresentare il risultato di un lancio di una moneta ripetuton volte, dove p indica la probabilità di ottenere testa. Vogliamo sottoporre a test l'ipotesisemplice

H0: p = p0 contro H1: p = p1,

dove p0 e p1, appartenenti a (0, 1), sono valori distinti e dati. Si sa che la probabilità diottenere testa è p0 o p1.

10. Prova che la statistica rapporto di verosimiglianza è

Test del rapporto di verosimiglianza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis6.html (3 di 5) [22/11/2001 18.00.59]

Page 617: Laboratorio virtuale di probabilità e statistica

L(I) = [(1 - p0) / (1 - p1)]n {p0(1 - p1) / [p1(1 - p0)]}X dove X = I1 + I2 + ··· + In.

Ricorda che X ha distribuzione binomiale con parametri n e p. Indicheremo il quantile diordine r di questa distribuzione con xr(n, p); poiché però la distribuzione è discreta, sonoammissibili solo alcuni valori di r.

11. Supponi che p1 > p0. Mostra che il test più potente a livello r è

Rifiutare H0 se e solo se X x1 - r(n, p0).

12. Supponi che p1 < p0. Mostra che il test più potente a livello r è

Rifiutare H0 se e solo se X xr(n, p0).

Nota, anche in questo caso, che i test degli esercizi 11 e 12 non dipendono dal valore dip1. Questo fatto, accoppiato alla monotonicità della funzione di potenza, può essereutilizzato per mostrare che i test sono uniformemente più potenti per i testmonodirezionali consueti.

13. Prova che il test dell'esercizio 11 è uniformemente più potente per le ipotesi

H0: p p0 contro H1: p > p0.

14. Prova che il test dell'esercizio 12 è uniformemente più potente per le ipotesi

H0: p p0 contro H1: p < p0.

Test uniformemente più potenti

I test monodirezionali che abbiamo introdotto per il modello normale, per µ con d nota,per µ con d ignota e per d con µ ignota sono tutti uniformemente più potenti. D'altra parte,nessuno dei test bidirezionali è uniformemente più potente.

Un caso non-parametrico

Supponiamo che X = (X1, X2, ..., Xn) sia un campione casuale proveniente o da unadistribuzione di Poisson a parametro 1 o dalla distribuzione geometrica a parametro 1/2.Osserva che entrambe queste distribuzioni hanno valori interi non negativi, e entrambehanno media 1. Vogliamo quindi sottoporre a test

H0: X sia un campione di g0(x) = e-x / x! per x = 0, 1, ...1.

H1: X sia un campione di g1(x) = (1/2)x + 1 per x = 0, 1, ...2.

15. Prova che la statistica rapporto di verosimiglianza è

L(X) = 2n e-n 2Y / U dove Y = X1 + X2 + ··· + Xn e U = X1! X2! ··· Xn!.

Test del rapporto di verosimiglianza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis6.html (4 di 5) [22/11/2001 18.00.59]

Page 618: Laboratorio virtuale di probabilità e statistica

16. Mostra che i test più potenti hanno la forma seguente, con d costante.

Rifiutare H0 se e solo se ln(2) Y - ln(U) d.

Rapporto di verosimiglianza generalizzato

La statistica rapporto di verosimiglianza può essere generalizzata al caso delle ipotesicomposte. Supponiamo, di nuovo, che la densità f(x | a) della variabile dei dati X dipendada un parametro a, a valori in A. Considera le seguenti ipotesi, dove A0 è sottinsieme diA:

H0: a A0 contro H1: a A - A0.

Definiamo

L(x) = max{f(x | a): a A0} / max{f(x | a): a A} per x appartenente a S.

La funzione L è la funzione rapporto di verosimiglianza e L(X) è la statistica rapporto diverosimiglianza. Seguendo lo stesso ragionamento fatto poc'anzi, valori piccoli di L(x)rappresentano prove a favore dell'ipotesi alternativa.

Laboratorio virtuale > Test di ipotesi > 1 2 3 4 5 [6] 7Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Test del rapporto di verosimiglianza

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis6.html (5 di 5) [22/11/2001 18.00.59]

Page 619: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Test di ipotesi > 1 2 3 4 5 6 [7]

7. Test per la bontà di adattattamento

Concetti preliminari

Supponiamo di avere un esperimento casuale con una variabile casuale di interesse X.Assumiamo inoltre che X sia discreta con funzione di densità f su un insieme finito S.Ripetiamo l'esperimento n volte per generare un campione casuale di dimensione n dalladistribuzione di X:

X1, X2, ..., Xn.

Ricorda che si tratta di variabili indipendenti, ciascuna distribuita come X.

In questo paragrafo assumeremo che la distribuzione di X sia ignota. Per una datafunzione di densità f0, impareremo a testare l'ipotesi

H0: f = f0 contro H1: f f0,

Il test che costruiremo è noto come test per la bontà di adattamento per la densitàipotizzata f0. Al solito, il punto è trovare una buona statistica test, che ci dia informazionisull'ipotesi e la cui distribuzione, sotto l'ipotesi nulla, sia almeno approssimatamente nota.

Derivazione del test

Sia S = {x1, x2, ..., xk}. Per semplificare la notazione, poniamo

pj = f0(xj) per j = 1, 2, ..., k.

Sia ora Nj = #{i appartenente a {1, 2, ..., n}: Xi = xj} per j = 1, 2, ..., k.

1. Mostra che, sotto l'ipotesi nulla,

N = (N1, N2, ..., Nk) ha distribuzione multinomiale con parametri n e p1, p2, ..., pk.1.

E(Nj) = npj.2.

var(Nj) = npj(1 - pj).3.

L'esercizio 1 ci indica da dove cominciare per costruire il test: per ciascun j possiamoconfrontare la frequenza osservata di xj (indicata con Nj) con la frequenza attesa di xj(ovvero npj), sotto l'ipotesi nulla. Specificamente, la nsotra statistica test sarà

V = (N1 - np1)2 / np1 + (N2 - np2)2 / np2 + ··· + (Nk - npk)2 / npk.

Osserva che la statistica test è basata sugli errori quadratici (le differenze tra le frequenzeattese e le frequenze osservate). La ragione per cui si considera il rapporto è la seguente,che accettiamo senza darne la prova: sotto l'ipotesi nulla, per n che tende a infinito, la

Test per la bontà di adattattamento

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis7.html (1 di 4) [22/11/2001 18.01.06]

Page 620: Laboratorio virtuale di probabilità e statistica

distribuzione di V converge alla distribuzione chi-quadro con k - 1 gradi di libertà.

Al solito, per m > 0 e r appartenente a (0, 1), indichiamo con vm, r il quantile di ordine pdella distribuzione chi-quadro con k gradi di libertà. Per dati valori di m e r, vm, r puòessere ricavato dalla tavola della distribuzione chi-quadro.

2. Prova che i seguenti test hanno livello di significatività approssimato a:

Rifiutare H0: f = f0 contro H1: f f0, se e solo se V > vk - 1, 1 - a.

Anche qui, il test è approssimato e funziona meglio quando n è grande. Quanto ndev'essere grande per avere un'approssimazione sufficiente dipende da pj; la regola praticaè che il test funziona bene se le frequenze attese npj sono almeno 1 e almeno l'80% sonoalmeno 5.

Generiamo una variabile indicatore I che assume valore 1 quando si rifiuta l'ipotesi nulla e0 quando non la si rifiuta.

3. Supponiamo che la distribuzione da cui si estragono i campioni e la distribuzionedel test siano identiche. Spiega perché:

L'ipotesi nulla è vera1.

I = 0 indica una decisione corretta2.

I = 1 indica un errore di prima specie3.

La frequenza relativa dell'evento I = 1, quando si ripete l'esperimento, converge allivello di significatività del test

4.

Se la dimensione del campione n è grande, il numero in (d) dev'essere prossimo allivello di significatività

5.

4. Supponiamo che la distribuzione da cui si estragono i campioni e la distribuzionedel test siano differenti. Spiega perché:

L'ipotesi nulla è falsa1.

I = 0 indica un errore di seconda specie2.

I = 1 indica una decisione corretta3.

La frequenza relativa dell'evento I = 1, quando si ripete l'esperimento, converge allapotenza del test.

4.

Simulazioni

Nelle simulazioni seguenti, potrai valutare empiricamente la qualità del test.

5. Nell'esperimento chi-quadro dei dadi, scegli dadi equilibrati, dimensionecampionaria 50 e livello di significatività 0.1. Poni la distribuzione del test come indicatosotto e, in ciascun caso, simula 1000 replicazioni. Nel caso (a), riporta la stima empiricadel livello di significatività del test e confrontala con 0.1. Negli altri casi, riporta la stimaempirica della potenza del test. Ordina le distribuzioni in (b)-(d) per potenza stimata. I

Test per la bontà di adattattamento

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis7.html (2 di 4) [22/11/2001 18.01.06]

Page 621: Laboratorio virtuale di probabilità e statistica

risultati ti sembrano ragionevoli?

equilibrati1.

piatto uno-sei2.

distribuzione simmetrica unimodale3.

distribuzione asimmetrica a destra4.

6. Nell'esperimento chi-quadro dei dadi, scegli dadi piatti uno-sei, dimensionecampionaria 50 e livello di significatività 0.1. Poni la distribuzione del test come indicatosotto e, in ciascun caso, simula 1000 replicazioni. Nel caso (a), riporta la stima empiricadel livello di significatività del test e confrontala con 0.1. Negli altri casi, riporta la stimaempirica della potenza del test. Ordina le distribuzioni in (b)-(d) per potenza stimata. Irisultati ti sembrano ragionevoli?

piatto uno-sei1.

equilibrati2.

distribuzione simmetrica unimodale3.

distribuzione asimmetrica a destra4.

7. Nell'esperimento chi-quadro dei dadi, scegli dadi con distribuzione simmetricaunimodale, dimensione campionaria 50 e livello di significatività 0.1. Poni ladistribuzione del test come indicato sotto e, in ciascun caso, simula 1000 replicazioni. Nelcaso (a), riporta la stima empirica del livello di significatività del test e confrontala con0.1. Negli altri casi, riporta la stima empirica della potenza del test. Ordina le distribuzioniin (b)-(d) per potenza stimata. I risultati ti sembrano ragionevoli?

distribuzione simmetrica unimodale1.

piatto uno-sei2.

equilibrati3.

distribuzione asimmetrica a destra4.

8. Nell'esperimento chi-quadro dei dadi, scegli dadi con distribuzione asimmetrica adestra, dimensione campionaria 50 e livello di significatività 0.1. Poni la distribuzione deltest come indicato sotto e, in ciascun caso, simula 1000 replicazioni. Nel caso (a), riportala stima empirica del livello di significatività del test e confrontala con 0.1. Negli altricasi, riporta la stima empirica della potenza del test. Ordina le distribuzioni in (b)-(d) perpotenza stimata. I risultati ti sembrano ragionevoli?

distribuzione asimmetrica a destra1.

piatto uno-sei2.

equilibrati3.

distribuzione simmetrica unimodale4.

9. Supponi che D1 e D2 siano distribuzioni differenti. La potenza del test quando ladistribuzione da cui si estraggono i campioni è D1 e la distribuzione del test è D2 è lastessa di quando la distribuzione da cui si estraggono i campioni è D1 e la distribuzione

Test per la bontà di adattattamento

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis7.html (3 di 4) [22/11/2001 18.01.06]

Page 622: Laboratorio virtuale di probabilità e statistica

del test è D2? Cerca di spiegare questo fatto utilizzando i risultati degli esercizi 5-8.

10. Nell'esperimento chi-quadro dei dadi, scegli la distribuzione del campione e deltest equilibrata e livello di significatività 0.05. Simula 1000 replicazioni per ciascuna delleseguenti dimensioni campionarie. In ciascun caso, riporta la stima empirica del livello disignificatività e confrontala con 0.05.

n = 101.

n = 202.

n = 503.

n = 1004.

11. Nell'esperimento chi-quadro dei dadi, scegli la distribuzione del campioneequilibrati, la distribuzione del test piatti uno-sei e livello di significatività 0.05. Simula1000 replicazioni per ciascuna delle seguenti dimensioni campionarie. In ciascun caso,riporta la stima empirica della potenza del test. La potenza sembra convergere?

n = 101.

n = 202.

n = 503.

n = 1004.

Argomenti correlati

Per un test analogo in ambito descrittivo, confronta il paragrafo sui Graficiquantile-quantile nel capitolo sui Campioni casuali.

Laboratorio virtuale > Test di ipotesi > 1 2 3 4 5 6 [7]Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Test per la bontà di adattattamento

http://www.ds.unifi.it/~stefanin/VL/VL_IT/hypothesis/hypothesis7.html (4 di 4) [22/11/2001 18.01.06]

Page 623: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Informazioni sul progetto

Informazioni sul progetto

Contents

Introduzione1.

Ringraziamenti2.

Riconoscimenti3.

Laboratorio virtuale > Informazioni sul progettoSommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Informazioni generali

http://www.ds.unifi.it/~stefanin/VL/VL_IT/intro/index.html [22/11/2001 18.01.25]

Page 624: Laboratorio virtuale di probabilità e statistica

Laboratorio virtuale > Informazioni sul progetto > [1] 2 3

1. Introduzione

L'obiettivo di questo progetto è fornire un insieme di risorse on-line per studenti e docentidi probabilità e statistica.

Organizzazione

Questo progetto è diviso in capitoli simili a quelli di un testo convenzionale. I capitolisono raggruppati in tre aree principali:

Probabilità●

Statistica●

Modelli speciali●

È presente inoltre un capitolo di informazioni sul progetto, in cui ti trovi adesso. Ognicapitolo è diviso in pagine web simili ai paragrafi di un testo convenzionale. Le paginesono normalmente costituite da:

Ipertesto. La componente testuale di una pagina consiste in una discussione dellateoria matematica sottostante i concetti presentati. La maggior parte del testo ècostituita da esercizi che guidano lo studente nell'apprendimento della teoriamatematica e nello sviluppo di familiarità con i concetti probabilistici.

1.

Applets. La maggior parte delle pagine hanno links a una o più applets Javaprogettate in modo che lo studente possa effettuare esperimenti casuali o generaredati in maniera semplice e rapida, visualizzando i risultati in tabelle e graficipersonalizzati. Di solito, lo studente può scegliere tra più modelli e intervenire suiparametri.

2.

Dati. Diverse pagine includono collegamenti a uno o più insiemi di dati provenientida analisi statistiche reali.

3.

Prerequisiti

Il testo preuppone la conoscenza dell'analisi matematica a livello intermedio (un corsouniversitario). Le applets (descritte più avanti) sono fondamentalmente autosufficienti enon richiedono conoscenze matematiche specifiche.

Il nostro obiettivo è quello di rendere questo progetto compatibile con gli standard eindipendente dalla piattaforma. Le applets sono scritte in linguaggio Java, e insieme allealtre finestre pop-up sono lanciate con Java Script Il testo usa indici inferiori e superiori,elenchi, tabelle e altri elementi strutturali. Le caratteristiche della presentazione sonocontrollate da un file di stile. Pertanto, per visualizzare correttamente questo sito haibisogno di un browser che supporti:

Java 1.2 o superiore (conosciuto anche come piattaforma Java 2)●

JavaScript 1.0 o superiore●

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/intro/intro1.html (1 di 4) [22/11/2001 18.01.32]

Page 625: Laboratorio virtuale di probabilità e statistica

HyperText Markup Language (HTML) 3.0 o superiore●

Cascading Style Sheet (CSS) 1.0 o superiore●

Si raccomanda l'uso delle versioni più recenti di Internet Explorer o Netscape. Cliccasull'icona relativa per scaricare:

Navigazione

Una mappa del tipo "ti trovi qui" si trova in cima e in fondo ad ogni pagina. Il sommariodi ogni capitolo è collegato con la home page del laboratorio virtuale e coi sommari deglialtri capitoli della medesima area. Le altre pagine di ogni capitolo sono collegate allahome page, al sommario del capitolo di cui fanno parte e alle altre pagine dello stessocapitolo. I collegamenti a queste pagine sono di colore blu e si aprono nella finestraprincipale del browser.

Inoltre, a pié di ogni pagina sono presenti collegamenti ad alcune risorse collaterali che siaprono in finestre esterne più piccole prive di menu e barre degli strumenti. Tali risorsecomprendono un sommario (o mappa del sito), l'elenco delle applets, dei dati, dellebiografie e delle risorse esterne, l'indice analitico, il form dei commenti e le informazionisui diritti d'autore. I collegamenti a queste risorse sono di colore rosso e si aprono infinestre più piccole.

Il nostro sito è collegato ad altri siti di probabilità e statistica; questi collegamenti sono dicolore blu scuro e si aprono in una nuova finestra del browser.

1. Clicca sul link per saperne di più su Sir Ronald Fisher.

Applets

Le applets Java hanno lo scopo di fare apprendere la teoria statistica in modo dinamico einterattivo. Ogni applet gira in una finestra separata, con la minima quantità di testonecessaria per descrivere l'applet e la sua notazione (ma senza nozioni teoriche). Pertantole applets possono essere utilizzate come parte integrante del testo oppure da sole.

Ogni applet rientra in una (o più di una) delle categorie:

Applets di simulazione. Simulano processi stocastici, con l'obiettivo di mostrarel'accordo tra i risultati teorici e quelli empirici. In genere sono indicati comeesperimenti nel testo.

Applets per la generazione di dati. In queste applets lo studente genera i datifacendo scelte in un gioco oppure cliccando su uno scatterplot o una linea. Ingenere sono indicati come giochi nel testo.

Si utilizza un'interfaccia grafica standard simile per ogni applet, con pulsanti, barre discorrimento e menu a tendina. Non c'è alcun tipo di sintassi da imparare, per cui glistudenti dovrebbero essere in grado di utilizzare le applets anche senza istruzioni. Comeabbiamo già osseravto, ogni applet sta in una finestra separata, così lo studente può

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/intro/intro1.html (2 di 4) [22/11/2001 18.01.32]

Page 626: Laboratorio virtuale di probabilità e statistica

muoversi avanti e indietro tra le applets e l'ipertesto relativo o tenere un'applet in funzionementre sfoglia il testo.

L'output delle applets è visualizzato numericamente e graficamente in una serie di tabellee grafici coordinati e opportunamente colorati. Gli oggetti grafici che dipendono solodalle distribuzioni o dai parametri sono blu, mentre quelli che dipendono dai dati, sianoessi simulati o generati, sono colorati di rosso.

I risultati numerici sono visualizzati in tabelle. Con la maggior parte delle piattaforme ilcontenuto di tali tabelle può essere selezionato e copiato negli appunti, e quindi trasferitoin un foglio elettronico o in un programma di trattamento testi per ulteriori analisi o peressere utilizzato per tesine da parte degli studenti.

Le applets che simulano processi hanno i seguenti pulsanti standard:

Step. Questo pulsante fa eseguire l'esperimento una volta, aggiornando i dati e igrafici. In alcuni casi sono inseriti suoni e pause per focalizzare l'attenzione dellostudente sull'esperimento.

Run. Questo pulsante esegue l'esperimento più volte; il numero di ripetizioni e lafrequenza di aggiornamento grafico possono essere controllate dallo studente. Perfar girare più velocemente la simulazione non vi sono suoni o pause incorporati.

Stop. Questo pulsante interrompe la simulazione mantenendo i dati e i grafici.●

Reset. Questo pulsante cancella tutti i dati e i grafici e riporta la procedura allaposizione iniziale.

La update frequency è selezionata dal primo menu a tendina. Questo numero determina,quando l'applet è in esecuzione (modalità Run) ogni quante iterazioni le tabelle e i graficivengono aggiornati. Nella maggior parte delle applets si può scegliere una frequenza diaggiornamento di 1, 10, 100, o 1000; in alcuni casi vi sono altre regole di aggiornamento.L'aggiornamento avviene automaticamente se la simulazione viene interrotta.

La stop frequency è selezionata dal secondo menu a tendina e individua, in modalità Run,il numero di iterazioni che vengono eseguite prima che la simulazione si arresti. Nellamaggior parte delle applets si può scegliere una frequenza di arresto di 1, 10, 100, o 1000;in alcuni casi vi sono altre regole di arresto.

Lo studente può facilmente modificare i parameri, scegliere le distribuzioni e leassunzioni di base dei modelli utilizzando i menu a tendina, le barre di scorrimento e lefinestre di dialogo presenti in cima alla finestra della applet.

2. Clicca sul link per iniziare la simulazione di un lancio di dadi. Prova a modificare iparametri e a eseguire la simulazione.

Dati

Ogni collezione di dati viene aperta in una finestra separata con la minima quantità ditesto necessaria per descrivere i dati e la loro fonte. I dati sono visualizzati in un'areascorribile in formato tabulato. Lo studente può semplicemente selezionare i dati, copiarli eincollarli in un pacchetto statistico o in un foglio elettronico. Inoltre ogni collezione di

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/intro/intro1.html (3 di 4) [22/11/2001 18.01.32]

Page 627: Laboratorio virtuale di probabilità e statistica

dati è collegata al pacchetto statistico on-line WebStat, scritto da Webster West e TodOgden. Cliccando sul pulsante WebStat lancerà WebStat con i dati caricatiautomaticamente.

3. Clicca sull'icona per aprire la pagina M&M data .

Lancia WebStat coi dati M&M caricati.a.

Seleziona i dati, copiali negli appunti e poi incollali nel tuo pacchetto statisticopreferito.

b.

Inoltre, ogni collezione di dati contiene i links agli stessi dati nei formati: tab-separatedtext, Minitab e Excel.

Esercizi

Come abbiamo già osservato, gli esercizi sono di tre tipi base, ognuno dei quali è indicatocon una specifica icona.

Gli Esercizi teorici richiedono solo carta e penna (e comprensione). Questi esercizi hannol'obiettivo di sviluppare la teoria statistica e di fornire i più rilevanti "attrezzi"computazionali.

4. Si lanciano due dadi equilibrati. Trova la probabilità che la somma dei punteggi sia7.

Le Simulazioni sono basati sulle applets. In alcuni casi si richiede solo di osservare ilcomportamento di una simulazione o di generare e osservare dati. In altri casi possonoanche essere necessari calcoli manuali, e può essere necessaria una calcolatrice o delsoftware statistico. Questi esercizi hanno l'obiettivo di spiegare la teroia della statistica inmaniera dinamica e interattiva.

5. Nell'esperimento binomiale del lancio di una moneta, modifica il numero di monetee la probabilità che esca testa. Osserva l'effetto sul grafico. Fai pratica effettuandosimulazioni.

Gli Esercizi numerici sono legati a dati provenienti da analisi statistiche reali e richiedonodel software o almeno una calcolatrice.

6. Trova la lunghezza media dei petali nei dati di Fisher sugli iris.

Laboratorio virtuale > Informazioni sul progetto > [1] 2 3Sommario | Applets | Dati | Biografie | Risorse | Indice analitico | ©

Introduzione

http://www.ds.unifi.it/~stefanin/VL/VL_IT/intro/intro1.html (4 di 4) [22/11/2001 18.01.32]

Page 628: Laboratorio virtuale di probabilità e statistica

Virtual Laboratories > Project Information > 1 [2] 3

2. Credits

Author

Kyle SiegristDepartment of Mathematical SciencesUniversity of Alabama in HuntsvilleHuntsville, AL 35899Voice: (256) 824-6270FAX: (256) 824-6173E-Mail: [email protected]

Graduate Research Assistants

Randy Gober, Winter 1997●

Jason York, Summer 1997-Summer 1998●

Christine Nickel, Summer 1999●

Evaluation

The principle reviewers for the project are

David Griffeath, University of Wisconsin, Madison●

Roger Johnson, South Dakota School of Mines and Technology●

John Paulos, Temple University●

Mike Pepe, Seattle Central Community College●

Don Piele, University of Wisconsin, Parkside●

Jerry Porter, University of Pennsylvannia●

Neil Weiss, Arizona State University●

Support

The project is partially supported by the University of Alabama in Huntsville.

From January, 1997 to December 1999, the project was partially supported by theNational Science Foundation, through the Course and Curriculum Development Programof the Division of Undergraduate Education in the Directorate for Education and HumanResources. The award number was DUE-9652870.

Contributors

Contributors include

Credits

http://www.ds.unifi.it/~stefanin/VL/VL_IT/intro/intro2.html (1 di 2) [22/11/2001 18.01.35]

Page 629: Laboratorio virtuale di probabilità e statistica

Houman Owhadi for establishting the EPFL mirror site.●

Marcus Pendergrass for the graph in Section 5 of Red and Black●

Christine Nickel for the graph in Section 6 of The Ball and Urn Experiment●

Christine Nickel and Jason York for the M&M data.●

Ginger Rowell and Robert Grammer for the Cicada data.●

Mario Triola for suggesting the random triangle problem.●

Marcus Pendergrass for suggesting the Twelve Days of Christmas problem.●

The Obligatory Disclaimer

Opinions expressed here are those of the author and not necessarily those of the NationalScience Foundation, the University of Alabama in Huntsville, the contributors, or theprinciple reviewers.

The material in this project is provided as a service to the educational community. Nowarranties are expressed or implied as to the correctness or usefulness of the material. Sothere!

Thanks!

We are very grateful to the graduate assistants, sponsors, reviewers, contributors, and bugreporters for their support and help.

Virtual Laboratories > Project Information > 1 [2] 3Contents | Applets | Data Sets | Biographies | Resources | Keywords | ©

Credits

http://www.ds.unifi.it/~stefanin/VL/VL_IT/intro/intro2.html (2 di 2) [22/11/2001 18.01.35]

Page 630: Laboratorio virtuale di probabilità e statistica

Virtual Laboratories > Project Information > 1 2 [3]

3. Awards

National Science Foundation Course and CurriculumDevelopment Grant, January 1, 1997 - December 31, 1999;award number DUE-9652870.

Featured Site Probability Web Featured Site, Fall 1997

Multimedia Physik Top 5% Award, Fall 1998.

National Academy Press Cool Science Site of the Week,November 17, 1998.

BritannicaBritannica. Rated three stars as one of the web's best probabilitysites, November 1999.

SchoolZone Award, July, 2000

Virtual Laboratories > Project Information > 1 2 [3]Contents | Applets | Data Sets | Biographies | Resources | Keywords | ©

Awards

http://www.ds.unifi.it/~stefanin/VL/VL_IT/intro/intro3.html [22/11/2001 18.01.38]

Page 631: Laboratorio virtuale di probabilità e statistica

DownloadIl download implica l'accettazione dei Copyright dell'autrice originale e del Dipartimentodi Statistica

Attualmente sono disponibili:

Un documento ipertestuale PDF contenente l'intero sito meno lesimulazioni-applets

1.

Un file zip dell'intero sito installabile localmente (un-zippare in una directoryconveniente).

2.

È VIVAMENTE SCONSIGLIATO di TENERE COPIE LOCALI (mirror) accessibili dainternet, dato che i documenti sono spesso modificati. È preferibile mettere un link con lapagina a cui si trova il materiale originale.

Alla home pageLast 22.11.2001

Laboratorio virtuale di probabilità e statistica

http://www.ds.unifi.it/~stefanin/VL/PDF/download.html [22/11/2001 18.01.41]