153
Indice 1 Elementi di Statistica Descrittiva 3 1.1 Introduzione ............................ 3 1.2 Rappresentazione grafica di dati ................. 4 1.2.1 Tabella di sintesi ..................... 4 1.2.2 Diagrammi a barre .................... 4 1.2.3 Diagrammi a torta .................... 6 1.2.4 Diagramma di Pareto ................... 8 1.2.5 Diagramma stem-leaf ................... 8 1.2.6 Istogrammi ........................ 11 1.3 Misure di dispersione e di tendenza centrale .......... 12 1.3.1 I quartili .......................... 15 1.4 Diagramma Box-Plot ....................... 17 1.5 Esercizi di riepilogo ........................ 20 2 Introduzione al Calcolo delle Probabilit` a 22 2.1 Esperimenti casuali ........................ 22 2.2 Frequenza assoluta e frequenza relativa ............. 24 2.2.1 Spazi campione finiti ................... 25 2.3 Metodi di enumerazione ..................... 30 2.4 Probabilit` a condizionata ..................... 34 2.4.1 Eventi indipendenti .................... 47 2.5 Esercizi di riepilogo ........................ 50 3 Variabili Aleatorie 53 3.1 Introduzione ............................ 53 3.2 Variabili aleatorie discrete .................... 55 3.3 Variabili aleatorie continue .................... 59 3.4 Funzioni di variabile aleatoria .................. 65 1

C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

  • Upload
    others

  • View
    3

  • Download
    1

Embed Size (px)

Citation preview

Page 1: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

Indice

1 Elementi di Statistica Descrittiva 31.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2 Rappresentazione grafica di dati . . . . . . . . . . . . . . . . . 4

1.2.1 Tabella di sintesi . . . . . . . . . . . . . . . . . . . . . 41.2.2 Diagrammi a barre . . . . . . . . . . . . . . . . . . . . 41.2.3 Diagrammi a torta . . . . . . . . . . . . . . . . . . . . 61.2.4 Diagramma di Pareto . . . . . . . . . . . . . . . . . . . 81.2.5 Diagramma stem-leaf . . . . . . . . . . . . . . . . . . . 81.2.6 Istogrammi . . . . . . . . . . . . . . . . . . . . . . . . 11

1.3 Misure di dispersione e di tendenza centrale . . . . . . . . . . 121.3.1 I quartili . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.4 Diagramma Box-Plot . . . . . . . . . . . . . . . . . . . . . . . 171.5 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . 20

2 Introduzione al Calcolo delle Probabilita 222.1 Esperimenti casuali . . . . . . . . . . . . . . . . . . . . . . . . 222.2 Frequenza assoluta e frequenza relativa . . . . . . . . . . . . . 24

2.2.1 Spazi campione finiti . . . . . . . . . . . . . . . . . . . 252.3 Metodi di enumerazione . . . . . . . . . . . . . . . . . . . . . 302.4 Probabilita condizionata . . . . . . . . . . . . . . . . . . . . . 34

2.4.1 Eventi indipendenti . . . . . . . . . . . . . . . . . . . . 472.5 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . 50

3 Variabili Aleatorie 533.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 533.2 Variabili aleatorie discrete . . . . . . . . . . . . . . . . . . . . 553.3 Variabili aleatorie continue . . . . . . . . . . . . . . . . . . . . 593.4 Funzioni di variabile aleatoria . . . . . . . . . . . . . . . . . . 65

1

Page 2: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

INDICE 2

3.5 Variabili aleatorie bidimensionali . . . . . . . . . . . . . . . . 663.6 Valore atteso di una variabile aleatoria . . . . . . . . . . . . . 70

3.6.1 Proprieta del valore atteso . . . . . . . . . . . . . . . . 723.7 Varianza di una variabile aleatoria . . . . . . . . . . . . . . . . 74

3.7.1 Covarianza e coefficiente di correlazione . . . . . . . . . 793.8 La disuguaglianza di Chebyshev . . . . . . . . . . . . . . . . . 833.9 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . 85

4 Modelli di Variabili Aleatorie 884.1 Variabili aleatorie di Bernoulli e binomiale . . . . . . . . . . . 884.2 Variabile aleatoria geometrica . . . . . . . . . . . . . . . . . . 914.3 Variabile aleatoria di Poisson . . . . . . . . . . . . . . . . . . 924.4 La legge dei grandi numeri . . . . . . . . . . . . . . . . . . . . 944.5 Variabile aleatoria uniforme . . . . . . . . . . . . . . . . . . . 954.6 Variabile aleatoria normale . . . . . . . . . . . . . . . . . . . . 97

4.6.1 Variabile aleatoria normale standard . . . . . . . . . . 994.7 Variabili aleatorie di tipo gamma . . . . . . . . . . . . . . . . 104

4.7.1 Variabile aleatoria esponenziale . . . . . . . . . . . . . 1054.7.2 Variabile aleatoria chi-quadro χ2

n . . . . . . . . . . . . 1064.8 Approssimazione di De Moivre-Laplace . . . . . . . . . . . . . 1074.9 Il teorema del limite centrale . . . . . . . . . . . . . . . . . . . 1094.10 Variabile aleatoria t di Student . . . . . . . . . . . . . . . . . 1094.11 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . 110

5 Elementi di Inferenza Statistica 1135.1 Campioni casuali . . . . . . . . . . . . . . . . . . . . . . . . . 1135.2 Stima di parametri . . . . . . . . . . . . . . . . . . . . . . . . 117

5.2.1 Stime di massima verosimiglianza . . . . . . . . . . . . 1175.3 Intervalli di confidenza per il valore atteso . . . . . . . . . . . 1225.4 Intervalli di confidenza per la varianza . . . . . . . . . . . . . 1295.5 Test di ipotesi . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

5.5.1 Tipi di errore e livello di significativita . . . . . . . . . 1325.5.2 Il p−value . . . . . . . . . . . . . . . . . . . . . . . . . 143

5.6 La Retta di Regressione . . . . . . . . . . . . . . . . . . . . . 1465.6.1 Stima dei Parametri di Regressione . . . . . . . . . . . 148

5.7 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . 150

Page 3: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

Capitolo 1

Elementi di StatisticaDescrittiva

1.1 Introduzione

La statistica e quella parte della matematica che si occupa dell’analisi didati connessi ad una certa variabile che e una caratteristica relativa ad unoggetto oppure ad un insieme di individui. Una variabile puo essere sia di tipoquantitativo, assumendo un valore di tipo numerico, (per esempio il denaroin possesso di un insieme di persone, oppure il numero di esami superati daun insieme di studenti universitari), oppure di tipo qualitativo (per esempiola citte di provenienza di un insieme di persone, oppure il tipo di mezzo ditrasporto utilizzato dagli studenti per raggiungere il Campus universitario ealtre). Scopo della statistica e quello che considerare il valore assunto da unavariabile per un insieme di soggetti (o oggetti) e cercare di rappresentare inmodo grafico tali dati evidenziandone le proprieta oppure cercare di trarreinformazioni sul valore assunto dalla variabile per un insieme piu ampio disoggetti (o oggetti). Una volta definito il concetto di variabile e importanteintrodurre i concetti di popolazione, campione, statistica e parametro.La popolazione e l’insieme di tutti i soggetti che costituiscono il gruppoche si e interessati ad analizzare. Un campione e la porzione di popolazioneche viene selezionato per l’analisi. Un parametro e una misura di sintesiche descrive una caratteristica dell’intera popolazione. Una statistica e unamisura di sintesi che descrive una caratteristica del campione. Esempi dipopolazione sono gli studenti iscritti ad un Ateneo, l’insieme degli abitanti

3

Page 4: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 4

di una citta o di una regione. In queste popolazioni e possibile individuarneun sottoinsieme cui viene richiesto, attraverso sondaggi, questionari o altretecniche simili, di fornire un insieme di informazioni relative ad una, o piuvariabili. la Statistica si divide in due branche la Statistica Descrittivache concentra sui metodi per raccogliere, sintetizzare e presentare un insiemedi dati e la Statistica Inferenziale (o Inferenza Statistica) che utilizzai dati campionari per trarre informazioni sull’intera popolazione.

1.2 Rappresentazione grafica di dati

Quando si raccolgono i dati relativi ad una popolazione o ad un campione,i valori si presentano in modo disordinato e, spesso, anche non omogeneo enon consentono di trarre nessun indizio sulla variabile oggetto di studio. Idati in questa forma sono detti grezzi. In questo capitolo saranno descrittealcune tecniche per organizzarli e sintetizzarli in modo tale da evidenziare leloro caratteristiche e individuare le informazioni di interesse.

1.2.1 Tabella di sintesi

Supponiamo di avere a disposizione un insieme di dati discreti, relativi aduna variabile definita per la popolazione oggetto di studio e che puo assumereun insieme finito di valori. Supponiamo, per esempio, di avere un insieme di50 studenti, di aver considerato il numero di esami superati nell’ultimo annosolare e di aver ottenuto i seguenti dati:

4 3 6 7 5 2 1 4 6 1 2 3 3 7 5 2 4 5 6 74 2 8 4 5 3 2 4 6 5 5 6 7 5 3 3 7 6 6 58 7 4 8 5 3 6 4 5 4.

(1.1)

Un primo modo per rappresentare questi dati discreti e usare la cosiddettatabella di sintesi o tabella delle frequenze, in cui sono riportati (in verticale)tutti i possibili valori e, su ogni riga, la frequenza assoluta (il numero distudenti che hanno mostrato tale dato) e quella relativa (il rapporto tra lafrequenza assoluta ed il numero di studenti), come riportato nella 1.1.

1.2.2 Diagrammi a barre

In un diagramma a barre ad ogni valore assunto dalla variabile oggetto distudio e associata una barra la cui lunghezza rappresenta il numoero, la

Page 5: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 5

Numero Frequenza Frequenzaesami assoluta relativa1 2 0.042 5 0.103 7 0.144 9 0.185 10 0.206 8 0.167 6 0.128 3 0.06

Totali 50 1.000

Tabella 1.1: Tabella delle frequenze relativa all’insieme (1.1).

frequenza o la percentuale di osservazioni caratterizzate da tale valore. Ivalori possono essere riportati, indifferentemente, sull’asse delle ascisse o suquello delle ordinate.

1

2

3

4

5

6

7

8

Page 6: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 6

1 2 3 4 5 6 7 8+ + + + + + + +

+0.1

1.2.3 Diagrammi a torta

Il diagramma a torta viene utilizzato per rappresentare insiemi di dati espres-si in forma percentuale. Il diagramma a torta e un cerchio che viene suddivisoin fette (una fetta per ogni valore assunto dalla variabile in oggetto) definiteda angoli proporzionali rispetto al valore percentuale del dato cui si riferisco-no. Consideriamo il seguente esempio. E stata condotta un’indagine su 200studenti del Politecnico di Bari per sapere i mezzi di trasporto piu utilizzatiper raggiungere il Campus che ha prodotto i seguenti risultati: L’angolo α,misurato in gradi, relativo alla porzione di cerchio associata ad un dato vienecalcolato in base alla seguente formula:

α =360p

100.

dove p ∈ R, 0 ≤ p ≤ 100, indica la percentuale del dato. Per i dati riportatinella tabella 1.2 il diagramma a torta e il seguente.

Page 7: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 7

Mezzo di Numero Percentualetrasporto studentiBicicletta 4 2%Piedi 76 28%Mezzo proprio 26 13%Mezzo altrui 6 3%Autobus urbano 18 9%Autobus extraurbano 36 18%Treni locali 24 12%Trenitalia 10 5%

Totali 200 100

Tabella 1.2

2% Bicicletta3%

Mezzo altrui

5%

Trenitalia

9%

Autobus urbano13%

Mezzo proprio

12%

Treno locale

18%Autobus extraurbano

38%

Piedi

Appare chiaro che il diagramma fornisce i risultati migliori quando il numerodi possibili valori non e particolarmente elevato.

Page 8: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 8

5 4 6 3 7 2 8 1+ + + + + + + +

b

b

b

b

b

bb

b 100%

20%

38%

54%

68%

80%

Figura 1.1: Diagramma di Pareto per l’insieme (1.1).

1.2.4 Diagramma di Pareto

Si tratta di un particolare diagramma a barre in cui le barre sono ordinate inmodo decrscente e all’insieme delle barre e sovrapposta una curva lineare atratti che evidenzia l’andamento cumulativo delle frequenze relative riportatesu una scala percentuale che e riportata sulla destra del diagramma.

1.2.5 Diagramma stem-leaf

La tecnica descritta in questo paragrafo puo essere utilizzata sia per rappre-sentare un insieme di dati osservati che per ordinarli in un modo qualsiasi(crescente o decrescente). Una tecnica comunemente usata e il cosiddettodiagramma ramo-foglia (stem-and-leaf display), in cui ogni dato viene scom-posto in due parti (il ramo e la foglia appunto) che vengono poi ordinati inmodo grafico. Per semplicita consideriamo il seguente esempio.

Page 9: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 9

Esempio 1.2.1 Supponiamo siano state effettuate le seguenti misure

68 55 41 33 32 45 75 81 90 9131 41 61 63 75 84 90 37 50 4455 36 63 74 84 35 54 61 84 7499 33 60 61 73 79 41 45 81 9044 39 55 63 75 56 65 44 64 74

ognuna delle quali viene scomposta in due parti: il ramo e la foglia. In questocaso e naturale scegliere come ramo il valore delle decine (comprese tra 3 e9) e come foglia quello delle unita. Nelle prime due colonne del diagramma

Rami Foglie Frequenza Profondita3 3 2 1 7 6 5 3 9 8 84 1 5 1 4 1 5 4 4 8 165 5 0 5 4 5 6 6 226 8 1 3 3 1 0 1 3 5 4 10 (10)7 5 5 4 4 3 9 5 4 8 188 1 4 4 4 1 5 109 0 1 0 9 0 5 5

Tabella 1.3: Diagramma ramo-foglie relativo all’esempio 1.2.1.

sono riportati tutti i rami e, per ciascun ramo, il valore delle foglie presentinell’insieme dei dati. Nelle ultime due colonne sono riportate la frequenzadi ogni ramo, cioe il numero di dati che appartengono al gruppo, e poi laprofondita, in cui le frequenze sono addizionate dall’alto e dal basso fino al-la riga in cui compare il valore medio delle osservazioni ordinate. Nel casospecifico poiche le osservazioni sono 50 la venticinquesima si trova in corri-spondenza del ramo etichettato con 6. Per evidenziare la riga dove si trovatale osservazione nell’ultima colonna viene riportato il valore della frequenzatra parentesi tonde. In modo simile si puo utilizzare una variante di taletecnica detto diagramma ramo-foglia ordinato. Quando il numero di ramidefinito e relativamente piccolo rispetto al campione disponibile allora si puopensare di sdoppiare ogni singolo ramo indicando il primo, per esempio, conun asterisco ∗, ed un secondo con un poccolo cerchio •. Al primo nuovo ra-

mo vengono associate le foglie comprese tra 0 e 4, mentre al secondo quellecomprese tra 5 e 9.

Page 10: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 10

Rami Foglie Frequenza Profondita3 1 2 3 3 5 6 7 9 8 84 1 1 1 4 4 4 5 5 8 165 0 4 5 5 5 6 6 226 0 1 1 1 3 3 3 4 5 8 10 (10)7 3 4 4 4 5 5 5 9 8 188 1 1 4 4 4 5 109 0 0 0 1 9 5 5

Tabella 1.4: Diagramma ramo-foglie ordinato relativo all’esempio 1.2.1.

Rami Foglie Frequenza Profondita3∗ 1 2 3 3 4 43• 5 6 7 9 4 84∗ 1 1 1 4 4 4 6 144• 5 5 2 165∗ 0 4 2 185• 5 5 5 6 4 226∗ 0 1 1 1 3 3 3 4 8 (8)6• 5 8 2 207∗ 3 4 4 4 4 187• 5 5 5 9 4 148∗ 1 1 4 4 4 5 108• 0 59∗ 0 0 0 1 4 59• 9 1 1

Tabella 1.5: Diagramma ramo-foglie ordinato con rami sdoppiati relativoall’esempio 1.2.1.

Questa tecnica puo essere usata quando il numero di possibili foglie e par-ticolarmente elevato e puo essere adattata al caso in cui ad ogni ramo puoessere associato un numero di foglie superiore a due, per esempio si potrebbeusare il simbolo ∗ per le foglie 0 e 1, il simbolo per le foglie 2 e 3, il simbolo× per le foglie 4 e 5, il simbolo ⊗ per 6 e 7 e infine • per 8 e 9.

Page 11: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 11

1.2.6 Istogrammi

Talvolta i risultati di un esperimento possono essere di tipo continuo cioe ap-partengono ad un intervallo [a, b] della retta reale. In questo caso ovviamentenon possono essere enumerati e quindi non e possibile tracciare un diagram-ma a barre perche probabilmente ogni valore del campione comparirebbe solouna volta ottenendo un gran numero di barre aventi tutte la stessa altezza.La tecnica che si utilizza per grandezze continue e quella di raggruppare idati in un numero finito di classi visualizzando le frequenze di tali classi. Lastessa tecnica che stiamp per a descrivere puo essere usata anche se i dati siriferiscono a una grandezza discreta che pero puo assumere un numero ele-vato di valori. Questa metodologia prende il nome di Istogramma, e prevedei seguenti passi.

1. Si determinano i valori massimo e minimo delle osservazioni. Il RangeR e la differenza

R = massimo−minimo.

2. Si sceglie il numero di classi k, in modo tale che non ce ne siano ne trop-pe (nel qual caso in ogni classe ci sarebbero pochissimi dati) ne troppopoche (nel qual caso si avrebbero molti elementi in poche classi e larappresentazione risultante non sarebbe significativa in quanto avrem-mo perso troppa informazione sulla distribuzione reale). In genere sisceglie un numero (intero) di classi prossimo al valore

k = 1 +10

3log10 n (1.2)

essendo n il numero di dati a disposizione.

3. Ogni intervallo inizia e finisce nel valor medio tra due possibili va-lori delle osservazioni che vengono arrotondate tutte ad un numeroprefissato di cifre decimali.

4. Il primo intervallo inizia a sinistra del valore minimo mentre l’ultimotermina a destra del valore massimo.

5. Gli intervalli sono detti classi, gli estremi delle classi sono detti estremidella classe o punti di taglio. Le classi sono denotate con

(c0, c1), (c1, c2), . . . , (ck−1, ck)

Page 12: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 12

6. Si identificano limiti della classe cioe il piu piccolo ed il piu grandevalore ammissibile all’interno della classe.

7. Si identifica l’indice della classe pari al punto medio della classe.

Una volta effettuata la ripartizione dei valori in classi e possibile costruireuna tabella delle frequenze che elenca le classi, i limiti, una tabulazione deivalori, la frequenza fi della classe, l’indice della classe. Un istogramma dellefrequenze viene costruito tracciando un rettangolo per ciascuna classe aventecome base la classe e come altezza la frequenza. Nell’istogramma delle fre-quenze relative il rettangolo ha un’altezza tale che la sua area sia uguale allafrequenza fi/n, ovvero la funzione che definisce tale valore e:

hi =fi

n(ci − ci−1), ci−1 ≤ x ≤ ci.

Esempio 1.2.2 Supponiamo di avere il seguente insieme di dati:

10.0 10.2 10.2 10.4 10.9 11.1 11.5 11.9 12.0 12.012.0 12.3 12.4 12.4 12.6 12.8 12.9 13.2 13.3 13.313.4 13.6 13.9 14.0 14.1 14.2 14.2 14.8 14.9 14.915.0 15.1 15.1 15.4 15.4 15.4 15.8 15.8 15.9 16.2

il cui range e:R = 16.2− 10.0 = 6.2,

mentre la formula (1.2) che suggerisce di utilizzare

k = 1 + 3.3 log2 40 ≃ 7

intervalli di ampiezza 0.9. Applicando il metodo descritto in precedenza siottiene la tabella delle frequenze 1.6.

1.3 Misure di dispersione e di tendenza cen-

trale

Si tratta di una serie di valori numerici che sintetizzano determinate carat-teristiche dei dati osservati. Supponiamo di avere un campione di n dati(il numero di dati prende il nome di ampiezza o numerosita del campione)x1, x2, . . . , xn, non necessariamente ordinati.

Page 13: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 13

Classi Limiti Frequenza Indicedella classe fi hi della classe

(9.95, 10.85) 10.0− 10.8 4 4/36 10.4(10.85, 11.75) 10.9− 11.7 3 3/36 11.3(11.75, 12.65) 11.8− 12.6 8 8/36 12.2(12.65, 13.55) 12.7− 13.5 6 6/36 13.1(13.55, 14.45) 13.6− 14.4 6 6/36 14.0(14.45, 15.35) 14.5− 15.3 6 6/36 14.9(15.35, 16.25) 15.4− 16.3 7 7/36 15.8

Tabella 1.6: Tabella delle frequenze relativa all’esempio 1.2.2.

10.4 11.3 12.2 13.1 14.0 14.9 15.8+ + + + + + +

h(x)

0.16 +

Figura 1.2: Istogramma per l’esempio 1.2.2.

Page 14: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 14

Definizione 1.3.1 Si dice media campionaria, e si denota con x, laquantita

x =1

n

n∑

i=1

xi. (1.3)

Se i dati vengono modificati attraverso una trasformazione lineare anche lamedia campionaria viene modifcata allo stesso modo. Questo significa che sex e la media campionaria relativa ai dati xi allora i dati

yi = axi + b

con a, b ∈ R, hanno come media campionaria (facilmente verificabile)

y = ax+ b.

Per esempio avendo il seguente insieme di dieci dati z

265 270 271 269 264 269 271 273

sottranedo 264 da ognumo si ottiene un nuovo insieme di dati yi = xi − 264:

1 6 7 5 0 5 7 8

da cui si ricava agevolmente che hanno media pari a 38/8 = 4.75. La mediadel campione assegnato e pertanto

x = y + 264 = 4.75 + 264 = 268.75.

Osservazione. Se v1, . . . , vk sono i valori distinti del campione e f1, . . . , fksono le relative frequenze assolute nel campione, ovvero

fi = numero di occorrenza di vi nel campione,

e tali chen∑

i=1

fi = n

allora

x =1

n

n∑

i=1

fivi.

Una volta ordinati i valori del campione la posizione di una rilevazione delcampione puo essere utile per ottenere ulteriori informazioni sulla distribu-zione dei dati del campione.

Page 15: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 15

Definizione 1.3.2 Assegnato un insieme di dati di ampiezza n si definiscemediana il valore che divide la prima meta di osservazioni dalla secondameta.

Per trovare la mediana di un insieme di osservazioni ordinate in modo cre-scente si utilizzano le seguenti due regole.

Regola 1. Se il numero di osservazioni n e dispari la mediana coincide con il valorecentrale xr di posto r = (n+ 1)/2.

Regola 2. Se il numero di osservazioni n si trova a meta tra le due osservazionicentrali la mediana e il valor medio tra le osservazioni di posto n/2 edn/2 + 1.

Definizione 1.3.3 Assegnato un insieme di dati di ampiezza n si definiscemoda il valore che ha la frequenza maggiore nell’insieme dei dati.

La moda non e influenzata ne dalla mediana ne dai valori estremi dei dati.

1.3.1 I quartili

Sia xk la k−esima rilevazione del campione ordinato

x1 ≤ x2 ≤ x3 ≤ · · · ≤ xn.

I quartili sono i valori che suddividono i dati del campione in quattro parti.Il primo quartile Q1 divide il 25% dei valori dal restante 75%.Il secondo quartile Q2 coincide con la mediana del campione.Il terzo quartile Q3 divide il 75% dei valori dal restante 25%.In breve si potrebbe dire che il primo quartile coincide con l’osservazione diposto (n + 1)/4 mentre il terzo quartile coincide con l’osservaione di posto3(n+ 1)/4.Per trovare il primo quartile di un insieme di osservazioni ordinate in modocrescente si utilizzano le seguenti regole.

Regola 1. Se il numero (n + 1)/4 e un numero intero allora il primo quartile Q1

coincide con l’elemento xr di posto r = (n+ 1)/4.

Regola 2. Se il numero (n + 1)/4 e a meta tra due numeri interi allora il primoquartile Q1 coincide con a media aritmetica tra le due osservazioni

Page 16: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 16

consecutive.Per esempio se fosse n = 13 allora sarebbe (n + 1)/4 = 3.5 quindi ilprimo quartile sarebbe

Q1 =x3 + x4

2.

Regola 3. Se il numero (n+ 1)/4 non e ne intero ne a meta tra due numeri interiallora si calcolano il numero intero r e la frazione a/b minore di 1 taleche

n+ 1

4= r +

a

b.

Si calcola il quartile facendo una media pesata tra le rilevazioni delcampione di posto r ed r + 1:

Q1 = xr +a

b(xr+1 − xr) =

(

1− a

b

)

xr +a

bxr+1.

Per determinare il terzo quartile Q3 si applicano le medesime tre regoleappena descritte al numero 3(n+ 1)/4 al posto di (n+ 1)/4.

Esempio 1.3.1 Consideriamo il seguente insieme di dati:

11 13 15 16 17 20 21 21 23 26 28 29 29 29 30 30 32 32 33 33

In questo caso n = 20 e

n+ 1

4=

21

4= 5 + 0.25.

Quindi x5 = 17 e x6 = 20 ed il primo quartile e

Q1 = (1− 0.25) 17 + 0.25 20 = 17.75.

La mediana invece en+ 1

2=

21

2= 10 + 0.5.

Quindi x10 = 26 e x11 = 28 pertanto

Q2 = (1− 0.50) 26 + 0.50 28 = 27.

In questo caso n = 20 e

3(n+ 1)

4=

63

4= 15 + 0.75.

Quindi x15 = 30 e x16 = 30 ed il terzo quartile e

Q3 = 30.

Page 17: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 17

I quartili di un campione possono essere utilizzat La differenza tra il terzo edil primo quartile si chiama Interquartile Range o Intervallo Interquartile:

IQR = Q3 −Q1.

1.4 Diagramma Box-Plot

I quartili, attraverso il cosiddetto Diagramma Box-Plot (detto anche Box-and-Whisker Diagram), consentono di rappresentare graficamente la distri-buzione dei dati del campione. Per riassumere i dati del campione sonosufficienti cinque valori:1) il minimo x1

2) il primo quartile Q1;3) la mediana Q2;4) il terzo quartile Q3;5) il massimo xn.

x1 xnQ1 Q2 Q3

Tale diagramma si ottiene sovrapponendo ad una linea orizzontale che va dalpiu piccolo dei dati al piu grande un rettangolo (detto appunto box) che vadal primo al terzo quartile, con una linea verticale che lo divide all’altezzadel secondo quartile. La lunghezza della linea orizzontale viene detta campodi variazione (o appunto range). Nelle due parti del rettangolo e nell’area adestra e a sinistra del box il numero di dati e lo stesso. L’analisi delle ampiezzedi tali parti del box-plot consente di individuare intorno a quali valori si

Page 18: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 18

concentrano i dati. Tale tecnica puo essere utilizzata anche per individuarei cosiddetti dati anomali. Tali dati sono osservazioni che assumono valorimolto piu grandi (o piu piccoli) delle altre. Un metodo per riconoscere talidati anomali e quello di tracciare una retta a destra e una a sinistra del box adistanza di 1.5 volte l’IQR. Ognuna di tali rette e detta inner fence (o recintointerno). Nello stesso modo si tracciano altre due rette, ognuna a distanza di3 volte l’IQR dal box, dette outer fences (o recinti esterni). Le osservazioniche sono comprese tra le due rette sono dette sospette, quelle che cadono aldi fuori del recinto esterno sono dette anomale. Tali valori potrebbero esseredovuti ad errori nella rilevazione dei dati e sono evidenziati nel diagrammautlizzando simboli grafici differenti (∗ oppure ) ed interrompendo la retta adestra (o a sinistra) del box in corrispondenza (o prima) del recinto interno.

Esempio 1.4.1 Supponiamo siano state effettuate le seguenti misure

10 15 16 17 17 18 19 21 22 2222 24 25 25 25 26 26 27 27 2829 30 30 30 31 32 32 32 33 3435 35 35 36 36 37 37 38 41 4748 49 50 54 55 58 59 65 75 89

Tracciamo il diagramma box-plot, considerando che

Q1 = 24.75 Q2 = 31.5Q3 = 40.25 IQR = 16.75

∗ ∗

63.50 86.7540.2524.75

In base a quanto affermato in precedenza i dati 65 e 75 risultano esseresospetti mentre il dato 89 e anomalo.

Appare ovvio che le definizioni viste in precedenza sono valide quando e notochei dati possano assumere valori positivi fino ad un certo valore massimo non

Page 19: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 19

conosciuto con precisione. Appare ovvio che il discorso possa essere ripetutoin modo simile sulla sinistra del diagramma box-plot analizzando i valori piupiccoli assunti dal campione.

Varianza e deviazione standard

Gli indici definiti finora consentono di avere una misura dei valori centralio medi della distribuzione dei dati. Un’altra questione di interesse e sape-re in che misura i dati sono concentrati intorno a tali valori centrali. Unmodo e quello di considerare il quadrato della distanza dei dati dalla mediacampionaria e calcolarne una sorta di media aritmetica.

Definizione 1.4.1 Assegnato un campione x1, x2, . . . , xn di ampiezza n sidice varianza campionaria, e si indica con S2 la quantita

S2 =1

n− 1

n∑

i=1

(xi − x)2.

Osserviamo che la varianza campionaria non e una media aritmetica esattain quanto il denominatore presenta il valore n− 1 al posto di n: vedremo inseguito il modo di tale discordanza.

Lemma 1.4.1 Se x1, . . . , xn e un campione casuale con media x, allora

(n− 1)S2 =n∑

i=1

x2i − nx2. (1.4)

Dimostrazione.

(n− 1)S2 =n∑

i=1

(xi − x)2

=n∑

i=1

[x2i − 2xix+ x2

]=

n∑

i=1

x2i − 2x

n∑

i=1

xi + nx2

=n∑

i=1

x2i − 2nx2 + nx2 =

n∑

i=1

x2i − nx2.

Page 20: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 20

Definizione 1.4.2 Assegnato un campione x1, x2, . . . , xn di ampiezza n sidice deviazione standard campionaria, e si indica con S, la radicequadrata della varianza campionaria

S =√S2 =

√√√√

1

n− 1

n∑

i=1

(xi − x)2.

Osserviamo che l’ultima grandezza, a differenza della varianza campionaria,definita ha la stessa unita di misura dei dati osservati.

1.5 Esercizi di riepilogo

Esercizio 1.5.1 Sia assegnato il seguente campione di dati

5 10 12 6 7 9 10 12 13 15 22 333 6 7 5 4 10 11 13 12 5 8 4

calcolare i quartili Q1, Q2 e Q3, l’IQR ed indentificare eventuali dati anomalie sospetti.

Esercizio 1.5.2 Sia assegnato il seguente campione di dati

12 13 30 20 35 44 10 16 21 11 60 3521 16 17 15 10 12 14 23 11 15 18 14

calcolare i quartili Q1, Q2 e Q3, l’IQR ed indentificare eventuali dati anomalie sospetti.

Esercizio 1.5.3 Nella seguente tabella e riportato il numero di studenti im-matricolati negli ultimi anni in un Corso di Laurea del Politecnico:

Anno Maschi Femmine TotaleAccademico2011/2012 8 73 812012/2013 8 89 972013/2014 20 105 1252014/2015 14 79 932015/2016 23 97 1202016/2017 18 80 982017/2018 10 83 93

Page 21: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 1. ELEMENTI DI STATISTICA DESCRITTIVA 21

a) Determinare media, moda e mediana per gli immatricolati maschi;b) Determinare media, moda e mediana per le immatricolate femmine;c) Determinare media, moda e mediana per gli immatricolati complessivi.

Esercizio 1.5.4 Con riferimento ai dati dell’esercizo precedente determina-re i quartili Q1 e Q3 per le stesse tre categorie di immatricolati.I valori ottenuti sono riferiti allo stesso anno accademico?

Esercizio 1.5.5 Un campione di dati di ampiezza n ha media nulla. Si puoaffermare con certezza che la mediana e anch’essa nulla? Perche? In qualesituazione puo accadere che i due indicatori siano entrambi nulli.

Page 22: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

Capitolo 2

Introduzione al Calcolo delleProbabilita

2.1 Esperimenti casuali

Il calcolo delle probabilita studia fenomeni, detti esperimenti casuali o nondeterministici, in cui il risultato di un evento non sia certo pur assumendo concertezza un valore appartenente ad un insieme noto. Il risultato del lanciodi un dado, il numero di teste uscite dopo aver lanciato 4 volte una monetanon truccata, il numero di articoli difettosi prodotti da una fabbrica nell’arcodi 24 ore, la durata di una lampadina o di un elettrodomestico sono classiciesempi di fenomeni casuali.Un esperimento, per essere casuale, deve soddisfare alcune caratteristicheparticolari:

1. Deve essere possibile la sua ripetizione sotto le stesse condizioni unnumero indefinito di volte;

2. Benche non sia possibile stabilire quando un certo risultato avverra sipuo comunque descrivere l’insieme di tutti i possibili risultati dell’espe-rimento;

3. Ripetuto un esperimento un certo numero di volte le uscite individualioccorrono in modo accidentale. Tuttavia un esperimento ripetuto unnumero elevato di volte produce risultati che sembrano regolari.

E proprio quest’ultima regolarita che permette di costruire un modello ma-tematico di un esperimento casuale.

22

Page 23: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 23

Definizione 2.1.1 Dato un esperimento E si definisce Spazio Campione Sl’insieme di tutti i possibili risultati di E .

Per esempio all’esperimento lancio di un dado e possibile associare l’insieme

S = 1, 2, 3, 4, 5, 6,

mentre all’esperimento Lancio di una moneta 4 volte si puo associare ilseguente spazio campione:

S = CCCC,CCCT,CCTC,CCTT,CTCC,CTCT,CTTC,CTTTTTTT, TTTC, TTCT, TTCC, TCTT, TCTC, TCCT, TCCC .

Definizione 2.1.2 Dato un esperimento E cui e associato uno spazio cam-pione S si definisce Evento un insieme di possibili risultati di E , cioe unsottoinsieme di S.

Per esempio se l’esperimento considerato e il lancio di un dado possibili eventisono

A = esce un numero pariB = esce un numero divisibile per 3C = esce un numero primo.

Gli eventi possono essere raffigurati come insiemi matematici quindi ha sensoconsiderare operazioni su di essi come unioni o intersezioni. Per esempio

A ∩ B = 6

oppureA ∩ C = 2

e ancoraB ∪ C = 1, 2, 3, 5, 6.

Definizione 2.1.3 Due eventi A e B si dicono mutuamente esclusivi (oincompatibili) se non possono accadere contemporaneamente, ovvero se

A ∩ B = ∅.

Page 24: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 24

2.2 Frequenza assoluta e frequenza relativa

Definizione 2.2.1 Sia A un evento associato ad un esperimento E . Suppo-niamo di ripetere l’esperimento n volte e sia nA il numero di volte che l’eventoA accade. Si definisce Frequenza Assoluta il valore nA mentre il rapporto

fA =nA

n

e la Frequenza Relativa.

La frequenza relativa fA gode delle seguenti proprieta:

1. 0 ≤ fA ≤ 1;

2. fA = 1 se A = S;

3. fA = 0 se l’evento A e impossibile;

4. se A ∩B = ∅ allora fA∪B = fA + fB.

La probabilita di un evento A puo essere definita come

P (A) = limn→+∞

nA

n.

La probabilita puo essere vista come una funzione che associa ad eventi di Sun numero reale compreso tra 0 e 1 tale che se A e un evento relativo allospazio campione S associato all’esperimento E allora:

1. 0 ≤ P (A) ≤ 1;

2. P (S) = 1;

3. se A ∩B = ∅ allora P (A ∪ B) = P (A) + P (B).

4. se A1, A2, . . . , Ak sono k eventi tali che Ai ∩ Aj = ∅, con i 6= j allora

P

(k⋃

i=1

Ai

)

=k∑

i=1

P (Ai).

Page 25: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 25

Alcune proprieta della probabilita di un evento sono ovvie, per esempio

P (∅) = 0

poiche A = A∪ ∅ ed ovviamente gli eventi A e ∅ sono mutuamente esclusivi,poiche

A ∩ ∅ = ∅quindi

P (A) = P (A ∪ ∅) = P (A) + P (∅).Inoltre

P (A) = 1− P (A),

dove A e l’evento complementare di A, cioe quell’evento che si verifica quandonon accade A, cioe, tale che A ∪ A = S.

Teorema 2.2.1 Se A e B sono due eventi non mutuamente esclusivi allora

P (A ∪ B) = P (A) + P (B)− P (A ∩B).

Dimostrazione. Scriviamo A ∪ B e B come unione di eventi mutuamenteesclusivi:

A ∪ B = A ∪ (B ∩ A),B = (A ∩ B) ∪ (B ∩ A).

QuindiP (A ∪ B) = P (A) + P (B ∩ A),

P (B) = P (A ∩B) + P (B ∩ A).

Sottraendo dalla prima relazione la seconda si ottiene

P (A ∪ B)− P (B) = P (A)− P (A ∩ B)

da cui segue la tesi.

2.2.1 Spazi campione finiti

Consideriamo ora il caso in cui uno spazio campione associato ad un espe-rimento E sia composto da un numero finito di eventi a1, a2, . . . , ak. Percaratterizzare la probabilita P (A) si considera il caso di un singolo risultato

A = ai

Page 26: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 26

detto evento elementare. A ciascun evento elementare viene associato unnumero pi detto probabilita di ai, tale che:i) pi ≥ 0, i = 1, 2, . . . , k,ii) p1 + p2 + · · ·+ pk = 1.Se un evento A puo essere scritto come insieme di r eventi elementari

A = aji , aj2 , . . . , ajr

allora, applicando la proprieta ii) risulta

P (A) = pj1 + pj2 + · · ·+ pjr .

L’ipotesi piu comune che viene fatta per spazi campione finiti e che tutti irisultati sono equiprobabili. Chiaramente tale ipotesi deve essere giustificatada valide motivazioni, in quanto esistono casi in cui e del tutto erronea. Sek risultati sono equiprobabili allora

pi =1

k, i = 1, . . . , k.

Quindi se l’evento A e l’unione di r eventi elementari, abbiamo

P (A) =r

k.

Il metodo pratico per valutare P (A) viene quindi stabilito nel seguente modo:

P (A) =numero di modi in cui il risultato di E e uguale all’evento A

numero totale di risultati dell’esperimento E .

Esempi di esperimenti con risultati elementari equiprobabili sono il lancio diuna moneta (o di un dado) non truccato, in cui le probabilita sono, rispetti-vamente 1/2 (i risultati possibili sono testa o croce) e 1/6 (i risultati sono inumeri compresi tra 1 e 6). Se invece consideriamo il lancio di una monetadue volte e consideriamo l’evento

A = esce una testa

allora lo spazio campione e l’insieme

S = 0, 1, 2

Page 27: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 27

dove ogni valore rappresenta il numero di teste uscite. In base a quanto dettosi potrebbe pensare che P (A) = 1/3. Ma tale analisi e ovviamente erratapoiche gli eventi elementari dell’insieme S non sono equiprobabili. Infatti sein alternativa consideriamo come spazio campione l’insieme

S = CC,CT, TC, TT

in questo caso gli eventi elementari sono tutti equiprobabili, quindi otteniamola risposta corretta

P (A) =2

4=

1

2.

Esempio 2.2.1 Supponiamo di avere tre carte, una rossa da tutti e due ilati, una con un lato bianco ed il dorso rosso mentre la terza ha tutti e due ilati bianchi. Supponiamo di prendere una carta e di scoprire che ha un latorosso, si vuole calcolare la probabilita che anche il dorso sia rosso.

Definiamo l’evento

AR = Il dorso della carta e rosso .

Si potrebbe pensare erroneamente che, poiche i casi possibili sono solo due,allora

P (AR) =1

2.

In questo caso invece bisogna identificare con certezza i possibili eventi. In-dichiamo con A la prima carta, con B la seconda e con C la terza, con ilnumero 1 la faccia e con 2 il dorso. Risulta:

A1 = Rosso A2 = RossoB1 = Bianco B2 = RossoC1 = Bianco C2 = Bianco

Una volta scelta la carta a caso abbiamo le seguenti possibilita:

Faccia scoperta Colore Dorso carta scelta ColoreA1 Rosso A2 RossoA2 Rosso A1 RossoB2 Rosso B1 Bianco

da cui segue che

P (AR) =2

3.

Page 28: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 28

Esempio 2.2.2 Siano A e B due eventi non mutuamente esclusivi, dimo-strare che

P ((A ∩ B) ∪ (A ∩ B)) = P (A) + P (B)− 2P (A ∩ B).

Osserviamo che gli eventi A ∩B e A ∩B sono mutuamente esclusivi, quindi

P ((A ∩ B) ∪ (A ∩ B)) = P (A ∩ B) + P (A ∩B)

e, poicheP (A ∩B) = P (A)− P (A ∩ B)P (A ∩B) = P (B)− P (A ∩ B)

da cui la tesi.

Esempio 2.2.3 La probabilita che uno studente che frequenta l’universitaabbia l’automobile e pari a 0.25, mentre la moto e 0.10 mentre quelli chehanno entrambi e 0.03. Determinare la probabilita che uno studente nonabbia ne l’auto ne la moto.

Definiamo i seguenti eventi

A = Lo studente ha l’autoB = Lo studente ha la motoA ∩ B = Lo studente ha sia l’auto che la moto

Sappiamo che

P (A) = 0.25, P (B) = 0.10, P (A ∩B) = 0.03.

L’evento unione e

A ∪ B = Lo studente ha l’auto o la moto

che ha probabilita

P (A ∪B) = 0.25 + 0.10− 0.03 = 0.32

mentre quella che cerchiamo e la probabilita dell’evento complementare

P (A ∪ B) = 1− P (A ∪ B) = 0.68.

Page 29: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 29

Esempio 2.2.4 Supponendo di estrarre una carta da un mazzo di carte fran-cesi calcolare la probabilita dei seguenti eventi:(a) A = la carta e un asso;(b) B = la carta e una figura;(c) C = la carta e un Jack nero oppure un King rosso;(d) D = la carta e una figura oppure una carta nera.

(a) Considerando i casi favorevoli su quelli possibili:

P (A) =4

52=

1

13;

(b) Nuovamente

P (B) =12

52=

3

13;

(c) Definiamo i due eventi

C1 = la carta e un Jack neroC2 = la carta e un King rosso

che sono mutuamente esclusivi, pertanto

P (C) = P (C1 ∪ C2) = P (C1) + P (C2) =2

52+

2

52=

1

13.

(d) Definiamo i due eventi

D1 = la carta e una figuraD2 = la carta e una carta nera

che non sono mutuamente esclusivi, pertanto

P (D) = P (D1∪D2) = P (D1)+P (D2)−P (D1∩D2) =3

13+1

2− 3

26=

8

13.

Esempio 2.2.5 Una battaglia navale si gioca su una scacchiera di 8 × 8quadrati. La flotta dell’avversario e composta da una nave da 6 quadrati,una da 4 e una da due quadrati.(a) Calcolare la probabilita di colpire una nave avversaria con il primo colpodella partita.(b) Supponendo di aver colpito una nave avversaria calcolare la probabilitache sia stata colpita la nave piu lunga.

Page 30: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 30

(a) Definito l’evento

A = Il primo colpo ha colpito un bersaglio

gli eventi favorevoli sono 12, ovvero il numero di quadrati che sono occupatidalle navi avversarie, il numero di quadrati della scacchiera e 64 pertanto

P (A) =12

64=

3

16.

(b) Definito l’evento

B =

E stata colpita la nave piu lunga

gli eventi favorevoli sono 6, ovvero il numero di quadrati della nave piu lun-ga, mentre il numero di quadrati della scacchiera occupati dalle navi e 12pertanto

P (B) =6

12=

1

2.

2.3 Metodi di enumerazione

In questo paragrafo consideriamo alcuni risultati di calcolo combinatorio checonsentono di determinare, per alcuni esperimenti casuali, il numero di casifavorevoli. Supponiamo che una procedura, designata con 1, possa essere ef-fettuata in n1 modi diversi. Assumiamo inoltre che una seconda procedura,denotata con 2, possa essere effettuata in n2 modi diversi. Allora la proce-dura consistente in 1 seguita da 2 puo essere effettuata in n1n2 modi diversi.Tale proprieta prende il nome di Principio di moltiplicazione.

Esempio 2.3.1 Determinare il numero di targhe italiane che possono essereassegnate dalla motorizzazione civile.

Una targa italiana e composta da 2 lettere, 3 cifre e 2 lettere. Il numero dipossibili lettere sarebbe 26, mentre le cifre possono essere 10. Applicando ilprincipio di moltiplicazione risulta

Ntarghe = 264 103 = 456976000.

Page 31: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 31

Se volessimo sapere il numero di targhe che hanno come prima lettera lavocale A sarebbe

NA = 263 103 = 17576000.

In realta dalle possibili lettere sono escluse le vocali I, O e U e la consonanteQ, che potrebbero essere confuse con altre lettere pertanto il numero effettivoe

Ntarghe = 224 103 = 234256000.

Supponiamo ora che una procedura, designata con 1, possa essere effettuatain n1 modi diversi. Assumiamo inoltre che una seconda procedura, denotatacon 2, possa essere effettuata in n2 modi diversi. Supponiamo inoltre chenon e possibile che entrambe le procedure siano effettuate insieme. Allorail numero di modi in cui si possono effettuare 1 o 2 e pari a n1 + n2. Taleproprieta prende il nome di Principio di addizione.Supponiamo ora di avere n differenti oggetti. Vogliamo trovare il numeroPn di modi in cui possono essere disposti tali oggetti. Possiamo idealizzaretale situazione pensando in quanti modi possiamo riporre tali oggetti in unascatola che e divisa esattamente in n scomparti indipendenti. Nel primoscomparto abbiamo n possibilita di scelta, nel secondo ne abbiamo n − 1 ecosı via fino all’ultimo in cui abbiamo una sola scelta. Applicando il principiodi moltiplicazione appena enunciato possiamo dire che abbiamo esattamenten! modi di poter disporre tali oggetti

Pn = n!.

Tale numero prende il nome di Permutazioni.Supponiamo di avere ancora n oggetti ma di doverne scegliere r, r < n, edi permutare tali oggetti. Indichiamo con Dn,r il numero di modi in cui ciopuo essere fatto. Ripetiamo la procedura della scatola ma in questo caso cifermiamo all’r-esimo scomparto. Applicando ancora una volta il principio dimoltiplicazione abbiamo

Dn,r = n(n− 1)(n− 2) . . . (n− r + 1)

che puo essere scritta anche come

Dn,r =n!

(n− r)!.

Nel calcolo combinatorio se n ed r sono due numeri interi positivi si definisceDisposizione di n oggetti presi r alla volta ogni sottoinsieme ordinato di r

Page 32: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 32

oggetti, in cui i sottoinsiemi differiscono se presentano gli stessi elementi main ordine diverso oppure contengono qualche elemento diverso.Per esempio con le 4 lettere A, B, C, D si possono comporre

D4,3 =4!

(4− 3)!= 24

gruppi da tre lettere

ABC ACD ABD ACB ADC ADBBAC BAD BCD BCA BDA BDCCAB CAD CBD CBA CDA CDBDAB DAC DBC DBA DCA DCB.

Consideriamo nuovamente n oggetti ma questa volta vogliamo sapere inquanti modi possiamo scegliere r oggetti senza riguardo all’ordine. In al-tre parole non contiamo scelte composte dagli stessi oggetti disposti in mo-do differente. Abbiamo visto che il numero di modi di scegliere r oggettie n!/(n − r)!. Sia Cn,r il numero che intendiamo calcolare. Notiamo cheuna volta scelti r oggetti, ci sono r! modi di permutarli. Quindi applicandonuovamente il principio di moltiplicazione abbiamo

Cn,rr! =n!

(n− r)!.

Cosı il numero cercato, che prende il nome di combinazioni di n oggetti su rposti, e proprio

Cn,r =n!

r!(n− r)!=

(n

r

)

,

ovvero il cosiddetto coefficiente binomiale.Facendo riferimento all’esempio precedente bisogna escludere tutti i gruppicomposti dalle stesse lettere ottenendo, alla fine solo

C4,3 = 4

combinazioni possibili:

ABC ACD ABD BCD.

Esempio 2.3.2 Sul tavolo ci sono 9 carte coperte, due di cuori, tre di fiorie quattro di picche. Calcolare la probabilita che, scelte simultaneamente 2carte a caso, siano di seme diverso.

Page 33: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 33

In questo caso risulta piu semplice determinare la probabilita che il seme delledue carte sia lo stesso e poi quella dell’evento complementare. Consideriamoi seguenti due eventi

A = sono estratte due carte di cuori;B = sono estratte due carte di fiori;C = sono estratte due carte di picche.

Lo spazio campione S e costituito da tutti i possibili modi per scegliere, inmodo non ordinato, due carte da un insieme di nove, ovvero

|S| =(9

2

)

= 36.

Il numero di casi favorevoli connessi all’evento A e 1, quindi

P (A) =1

36.

Il numero di casi favorevoli connessi all’evento B e(3

2

)

= 3

quindi

P (B) =3

36,

mentre il numero di casi favorevoli connessi all’evento C e(4

2

)

= 6

di conseguenza

P (C) =6

36.

Calcoliamo la probabilita che le due carte abbiano lo stesso seme,

P (A ∪ B ∪ C) = P (A) + P (B) + P (C) =1

36+

3

36+

6

36=

5

18.

La probabilita richiesta e quella dell’evento complementare

P (A ∪ B ∪ C) = 1− 5

18=

13

18.

Page 34: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 34

Esempio 2.3.3 Vogliamo calcolare la probabilita di vincere al Superenalottogiocando 6 numeri.

Il numero di casi favorevoli e solo uno, la sestina giocata. Il numero dipossibili giocate e pari al numero di combinazioni di 90 numeri su 6 posti,ovvero

C90,6 =90!

6!84!= 622614630.

2.4 Probabilita condizionata

Consideriamo il seguente esempio. Supponiamo di avere 100 oggetti del-lo stesso tipo dei quali 80 sono funzionanti e 20 difettosi. Supponiamo discegliere due di questi oggetti in due modi differenti:

a) con restituzione;

b) senza restituzione.

Consideriamo i seguenti due eventi

A = il primo articolo e difettoso;B = il secondo articolo e difettoso.

Nel caso con modalita a) la probabilita degli eventi A e B e la stessa ed epari ad 1/5 in quanto gli eventi avvengono nelle stesse modalita ed i casifavorevoli sono sempre 20 su 100.Nel caso con modalita b) P (A) = 1/5 ma non possiamo dire nulla su P (B)poiche per calcolare tale valore dovremmo sapere la composizione dello spaziocampione quando viene scelto il secondo oggetto. Se infatti il primo articoloe risultato difettoso allora

P (B) =19

99

mentre se il primo articolo non lo era allora

P (B) =20

99.

Questo esempio rende chiaro che e importante introdurre un altro concettofondamentale. Siano A e B due eventi associati allo spazio campione S non

Page 35: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 35

mutuamente esclusivi (ovvero A∩B 6= ∅). Si denota con P (B/A) la probabi-lita condizionata dell’evento B una volta che si e verificato l’evento A. Quindise P (B) indica la probabilita dell’evento B rispetto all’intero spazio campio-ne S, allora P (B/A) indica la probabilita dell’evento B rispetto allo spaziocampione costituito dal solo evento A. Nell’esempio visto in precedenza e

P (B/A) =19

99.

Per definizione e

P (B/A) =P (A ∩ B)

P (A), (2.1)

purche sia P (A) > 0. Per motivare tale definizione torniamo al concetto difrequenza relativa. Supponiamo che un esperimento E venga ripetuto n volte.Siano nA, nB ed nA∩B il numero di volte che si sono verificati gli eventi A, Be A∩B. Il rapporto nA∩B/nA rappresenta la frequenza relativa dell’evento Brispetto alle volte in cui si e verificato A. In altre parole nA∩B/nA rappresentala frequenza relativa condizionata di B una volta che l’evento A si e verificato.Pertanto definendo la frequenza relativa fB/A come modo:

fB/A =nA∩B

nA

fB/A =nA∩B/n

nA/n=

fA∩B

fA.

Passando al limite per n → ∞ segue la (2.1). In realta la relazione (2.1) nonpuo essere considerato un teorema ne tantomeno un assioma, ma bensı unaformale definizione della nozione (intuitiva) di probabilita condizionata. Laprobabilita condizionata gode delle seguenti proprieta:

1. 0 ≤ P (B/A) ≤ 1;

2. P (S/A) = 1;

3. P (B1 ∪B2/A) = P (B1/A) + P (B2/A), se B1 ∩ B2 = ∅;

4. P (B1 ∪ B2 ∪ · · · ∪ Bk/A) = P (B1/A) + P (B2/A) + · · · + P (Bk/A), seBi ∩ Bj = ∅ quando i 6= j.

5. Se gli eventi A e B sono mutuamente esclusivi allora

P (A/B) = P (B/A) = 0.

Page 36: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 36

Dalla definizione deriva anche un modo per calcolare la probabilita dell’eventointersezione:

P (A ∩B) = P (A/B)P (B) = P (B/A)P (A). (2.2)

Il teorema della probabilita totale

Consideriamo la seguente definizione.

Definizione 2.4.1 Si dice che gli eventi B1, B2, . . . , Bk rappresentano unapartizione dello spazio campione S se

1. Bi ∩ Bj = ∅ per ogni i 6= j;

2.k⋃

i=1

Bi = S;

3. P (Bi) > 0, per ogni i.

Uno dei risultati piu importanti nell’applicazione delle probabilita condizio-nate e il seguente teorema

Teorema 2.4.1 (della probabilita totale) Sia A un evento dello spaziocampione S e B1, B2, . . . , Bk una partizione del medesimo spazio. Allora

P (A) =k∑

i=1

P (A ∩ Bi) =k∑

i=1

P (A/Bi)P (Bi).

L’evento A puo essere scritto come:

A = (A ∩ B1) ∪ (A ∩ B2) ∪ · · · ∪ (A ∩ Bk),

come si evince dalla seguente figura:

Page 37: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 37

S

A

B1

B2

B3 B4

B5

Gli eventi A ∩Bi sono tra loro mutuamente esclusivi quindi

P (A) = P (A ∩ B1) + P (A ∩B2) + · · ·+ P (A ∩ Bk),

Applicando la proprieta (2.2)

P (A ∩ Bi) = P (A/Bi)P (Bi), i = 1, . . . , k

segue la tesi.

Un altro importante risultato legato alla probabilita condizionata e il se-guente.

Teorema 2.4.2 (di Bayes) Se B1, B2, . . . , Bk rappresenta una partizionedello spazio campione S ed A e un evento di S allora:

P (Bi/A) =P (A/Bi)P (Bi)

P (A)=

P (A/Bi)P (Bi)k∑

j=1

P (A/Bj)P (Bj)

Dimostrazione. Segue dalla relazione (2.2) con B = Bi e applicando il Teo-rema della probabilita totale.

Page 38: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 38

Osservazione. La probabilita calcolata nel Teorema di Bayes e detta ancheProbabilita a posteriori di un evento in quanto e la probabilita condizio-nata assegnata dopo che un’informazione rilevante posta in evidenza e stataconsiderata.

Esempio 2.4.1 Nel lancio di due dadi non truccati la somma dei risultati eun numero pari. Quanto vale la probabilita di aver totalizzato 8?

Definiamo i seguenti eventi:

A = La somma dei risultati e 8B = La somma dei risultati e pari .

Considerando il numero complessivo dei risultati possibili (ovvero 36) ed ilnumero di casi favorevoli abbiamo

A = (2, 6), (3, 5), (4, 4), (5, 3), (6, 2)

pertanto

P (A) =5

36, P (B) =

1

2.

Quella che vogliamo determinare e la probabilita condizionata

P (A/B) =P (A ∩B)

P (B)=

P (A)

P (B)=

5

362 =

5

18.

Esempio 2.4.2 Consideriamo tre fabbriche delle quali la prima produce inuna giornata il doppio di manufatti della seconda mentre le altre due produ-cono lo stesso numero di articoli. La probabilita che un articolo prodotto dalleprime due fabbriche sia difettoso e pari al 2% mentre per la terza e ugualeal 4%. Immagazzinati insieme tutti gli articoli prodotti in un giorno si vuolcalcolare la probabilita che, preso un articolo a caso, questo sia difettoso.

Definiamo i seguenti eventi:

A = L’articolo e difettosoBi = L’articolo proviene dalla i−esima fabbrica , i = 1, 2, 3.

Applicando il teorema della probabilita totale la probabilita cercata e datadalla seguente formula:

P (A) = P (A/B1)P (B1) + P (A/B2)P (B2) + P (A/B3)P (B3).

Page 39: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 39

In base ai dati del problema possiamo facilmente calcolare le probabilitarichieste:

P (B1) =1

2, P (B2) =

1

4, P (B3) =

1

4,

P (A/B1) = 0.02 =1

50, P (A/B2) = 0.02 =

1

50, P (A/B3) = 0.04 =

2

50.

Possiamo ora calcolare P (A):

P (A) =1

50

1

2+

1

50

1

4+

2

50

1

4=

1

50

5

4=

1

40.

Supponiamo ora di voler calcolare la probabilita che, avendo scelto un articoloed avendolo trovato difettoso, questo sia stato prodotto nella prima fabbrica.In breve si vuole calcolare la probabilita P (B1/A). In questo caso e possibileapplicare il Teorema di Bayes

P (B1/A) =P (A/B1)P (B1)

P (A)=

1

50

1

21

40

=40

100=

2

5

Esempio 2.4.3 Una squadra di calcio quando gioca in casa ha probabilitadi vincere pari a 0.5, di pareggiare 0.3, di perdere 0.2. Ogni volta che vince opareggia viene issata una bandiera davanti al club degli ultras. Sapendo chela bandiera e stata issata calcolare la probabilita che la squadra abbia vinto.

Definiamo i seguenti eventi

V = La squadra ha vintoP = La squadra ha pareggiatoS = La squadra ha persoB = La bandiera e stata issata .

Sappiamo che

P (V ) = 0.5 P (P ) = 0.3 P (S) = 0.2

eP (B) = 0.8

poicheB = V ∪ P.

Page 40: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 40

La probabilita che vogliamo determinare e P (V/B). Applicando il Teoremadi Bayes

P (V/B) =P (V )

P (B)= 0.625.

in quanto V = V ∩B.

Esempio 2.4.4 Giuseppe partecipa ad un torneo di scacchi dove giochera 4partite. Ad ogni partita si estrae a sorte (con una moneta non truccata) chigioca con i pezzi bianchi.(a) Qual e la probabilita che Giuseppe giochi almeno una partita con il nero?E che giochi tutte le partite con il nero?(b) Giuseppe sa che se gioca col bianco ha il 20% di probabilita di perdereed il 50% di pareggiare mentre con il nero ha il 50% di perdere e il 40% dipareggiare. Giuseppe vince la prima partita: qual e la probabilita che abbiagiocato con il nero?

(a) Nel primo quesito si deve calcolare il rapporto tra casi favorevoli e casipossibili (16 nel caso specifico, applicando il principio di moltiplicazione).Definiti gli eventi

N1 = Giuseppe gioca almeno una partita con il neroN4 = Giuseppe gioca tutte le partite con il nero

risulta

P (N1) =15

16, P (N4) =

1

16.

(b) Definiamo i seguenti eventi

N = Giuseppe ha giocato la partita con il neroB = Giuseppe ha giocato la partita con il biancoV = Giuseppe ha vinto la partita .

Sappiamo che

P (V/B) =3

10, P (V/N) =

1

10P (N) = P (B) =

1

2.

Applicando il Teorema della probabilita totale possiamo calcolare P (V ):

P (V ) = P (V/B)P (B) + P (V/N)P (N) =3

10

1

2+

1

10

1

2=

1

5,

Page 41: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 41

e, applicando il Teorema di Bayes, la probabilita condizionata

P (N/V ) =P (V/N)P (N)

P (V )=

1

10

1

2

(1

5

)−1

=1

4.

Esempio 2.4.5 Si utilizza un prodotto fornito in uguale percentuale da dueditte, A e B. E stato calcolato che, scelto a caso un prodotto difettoso, laprobabilita che sia stato prodotto dalla ditta A vale 0.25. Se la ditta A hauna probabilita di produrre un pezzo difettoso pari a 0.05 si vuole conoscerel’analoga probabilita per B.

Definiamo i seguenti eventi

A = L’articolo e prodotto dalla ditta AB = L’articolo e prodotto dalla ditta B

che sono

P (A) = P (B) =1

2.

Definiamo ora un terzo evento

D = L’articolo e difettoso

per il quale conosciamo la probabilita condizionate

P (D/A) = 0.05, P (A/D) = 0.25

mentre vogliamo conoscere la probabilita P (D/B). Applicando il Teoremadi Bayes e successivamente, il Teorema della probabilita totale risulta

P (A/D) =P (D/A)P (A)

P (D)

=P (D/A)P (A)

P (D/A)P (A) + P (D/B)P (B).

Sostituendo i valori noti risulta

0.25 =0.05 0.5

0.05 0.5 + P (D/B)0.5

Page 42: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 42

da cui, semplificando il secondo addendo per 0.5 risulta

0.25 =0.05

0.05 + P (D/B)

e quindi

P (D/B) =0.05

0.25− 0.05 = 0.15.

Esempio 2.4.6 L’urna A contiene 2 palline bianche e 3 nere, l’urna B necontiene 4 bianche e 1 nera, l’urna C 3 bianche e 2 nere. Si sceglie a ca-so un’urna e si estrae una pallina bianca. Calcolare la probabilita che essaprovenga dall’urna C.

Definiamo i seguenti eventi

A = L’urna scelta e AB = L’urna scelta e BC = L’urna scelta e C

e supponiamo che la probabilita di scegliere un’urna sia la stessa per tutte leurne. Definiamo inoltre l’evento

D = La pallina estatta e bianca

del quale possiamo calcolare la probabilita applicando il Teorema della pro-babilita totale

P (D) = P (D/A)P (A) + P (D/B)P (B) + P (D/C)P (C)

infatti

P (D/A) =2

5, P (D/B) =

4

5, P (D/A) =

3

5

P (D) =1

3

(2

5+

4

5+

3

5

)

=3

5.

Per determinare la probabilita voluta applichiamo il Teorema di Bayes

P (C/D) =P (D/C)P (C)

P (D)=

1

3.

Page 43: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 43

Esempio 2.4.7 Il responsabile marketing di una societa che produce giocat-toli sta analizzando la probabilita di successo sul mercato di un nuovo gioco.Dall’esperienza passata e noto che il 65% dei giocattoli ha avuto successomentre il 35% non ha avuto successo. Si sa inoltre che l’80% dei giocattoli disuccesso avevano ricevuto un giudizio positivo dagli esperti prima dell’immis-sione del prodotto sul mercato mentre lo stesso giudizio era stato attribuitosolo al 30% dei giocattoli che si sarebbero rivelati un insuccesso. Il respon-sabile e interessato a calcolare la probabilita che il nuovo giocattolo sia unsuccesso sapendo che gli esperti lo hanno valutato positivamente.

Definiamo i seguenti eventi

S = Il giocattolo ha successoS = Il giocattolo non ha successoP = Il giudizio degli esperti e stato positivoN = Il giudizio degli esperti e stato negativo .

Sono note le seguenti probabilita

P (S) = 0.65, P (S) = 0.35, P (P/S) = 0.8, P (P/S) = 0.3.

Vogliamo calcolare P (S/P ). Applicando il Teorema della probabilita totalepossiamo calcolare P (P ):

P (P ) = P (P/S)P (S) + P (P/S)P (S) = 0.8 0.65 + 0.3 0.35 = 0.625

e, applicando il Teorema di Bayes, la probabilita condizionata

P (S/P ) =P (P/S)P (S)

P (P )=

0.8 0.65

0.625= 0.832.

Esempio 2.4.8 Sul tavolo ci sono due mazzi di carte. Il mazzo A e completoe ha 52 carte, invece dal mazzo B sono state tolte le figure. Si estrae unacarta a caso da uno dei due mazzi ed e un asso. Qual e la probabilita che siastato estratto dal mazzo B.

La probabilita di scegliere il mazzo e la stessa

P (A) = P (B) =1

2

Page 44: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 44

doveA = Il mazzo scelto e AB = Il mazzo scelto e B,

seC = La carta estratta e un asso

allora

P (C/A) =1

13, P (C/B) =

1

10.

Applicando il Teorema di Bayes

P (B/C) =P (C/B)P (B)

P (C/A)P (A) + P (C/B)P (B)=

13

23.

Esempio 2.4.9 In una cassetta della frutta, indicata con A, ci sono 30 fruttidi cui 25 maturi e 5 acerbi, invece nella cassetta della frutta indicata con B,ci sono 14 frutti di cui 11 maturi e 3 acerbi. Si preleva un frutto da A e vienemesso in B. Si prende poi un frutto anche da B. Calcolare la probabilita cheil frutto preso da B sia lo stesso che era in A sapendo che e acerbo.

Definiamo i seguenti eventi

A1 = Il frutto preso da A e maturoA2 = Il frutto preso da A e acerbo .

Sappiamo che

P (A1) =5

6, P (A2) =

1

6.

Definiamo ora un altro evento

C = Il frutto preso da B e acerbo .

Le probabilita condizionate sono

P (C/A1) =3

15, P (C/A2) =

4

15.

e, applicando il Teorema della probabilita totale

P (C) = P (C/A1)P (A1) + P (C/A2)P (A2) =19

90.

Page 45: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 45

SeD = Il frutto preso da B e lo stesso preso da A .

possiamo calcolare la probabilita a posteriori applicando il Teorema di Bayes

P (D/C) =P (C/D)P (D)

P (C)=

1

6

1

15

(19

90

)−1

=1

19

avendo applicato la proprieta che P (C/D) = P (A2).

Esempio 2.4.10 Un’urna contiene una pallina nera e due palline bianche.Si estrae casualmente una pallina dall’urna e, dopo averne osservato il colore,viene rimessa nell’urna aggiungendo due palline del colore di quella estratta etre palline del colore non estratto. Calcolare la probabilita che in 4 estrazionisuccessive, effettuate secondo la regola sopra descritta, si ottenga la stringaBNNB.

Definiamo i seguenti eventi

Bi = Si estrae una pallina bianca all’i−esima estrazione i = 1, . . . , 4Ni = Si estrae una pallina nera all’i−esima estrazione i = 1, . . . , 4.

Dopo ogni estrazione cambia lo spazio campione e, se gli esiti delle estrazioniseguono la sequenza stabilita B1N2N3B4 il numero di palline bianche e nerepuo essere riassunto nella seguente tabella:

Estrazione Palline Pallinenere bianche

1 1 22 4 43 6 74 8 10

Calcoliamo le probabilita condizionate della sequenza voluta:

P (B1) =2

3

P (N2/B1) =1

2

P (N3/B1 ∩N2) =6

13

Page 46: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 46

P (B4/B1 ∩N2 ∩N3) =10

18=

5

8.

La probabilita cercata e

P (B4 ∩N3 ∩N2 ∩ B1) = P (B4/N3 ∩N2 ∩ B1)P (N3 ∩N2 ∩ B1)

= P (B4/N3 ∩N2 ∩ B1)P (N3/N2 ∩ B1)P (N2 ∩ B1)

= P (B4/N3 ∩N2 ∩ B1)P (N3/N2 ∩ B1)P (N2/B1)P (B1)

=5

9

6

13

1

2

2

4=

10

117.

Esempio 2.4.11 Al primo turno delle elezioni in un piccolo paese il partitoA ha ottenuto il 45%dei voti mentre il partito B ha ottenuto il 55% dei voti.Dopo due settimane si ripetono le votazioni con gli stessi votanti, e, in baseai sondaggi si scopre che:1. il 10% di coloro che avevano votato A hanno spostato il voto su B;2. il 20% dei vecchi elettori di B ha votato A.Determinare chi ha vinto il secondo turno in base ai sondaggi.

Definiamo i seguenti eventi

A1 = Voto per A al primo turnoB1 = Voto per B al primo turnoA2 = Voto per A al secondo turnoE = Voto al primo turno diverso da quello al secondo turno.

Sappiamo cheP (A1) = 0.45, P (B1) = 0.55

P (E/A1) = 0.10, P (E/B1) = 0.20

quindi la probabilita che un elettore abbia votato al secondo turno per Asapendo che al primo ha votato A e

P (E/A1) = 0.90.

L’evento A2 puo essere scritto come

A2 = (E ∩ A1) ∪ (E ∩ B1)

Page 47: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 47

e quindiP (A2) = P (E ∩ A1) + P (E ∩ B1)

= P (E/A1)P (A1) + P (E/B1)P (B1)= 0.90 0.45 + 0.20 0.55 = 0.515.

Quindi secondo i sondaggi il partito A ha vinto il secondo turno.

2.4.1 Eventi indipendenti

Consideriamo il seguente esempio.Consideriamo come esperimento il lancio di un dado due volte e definiamo iseguenti eventi

A = Il risultato del primo lancio e un numero pariB = Il risultato del secondo lancio e 5 o 6,

allora

P (A) =1

2, P (B) =

1

3

P (A ∩ B) =6

36=

1

6,

infattiA ∩ B = (2, 5), (4, 5), (6, 5), (2, 6), (4, 6), (6, 6).

Calcoliamo le probabilita condizionate

P (A/B) =P (A ∩ B)

P (B)=

1

2= P (A)

P (B/A) =P (A ∩B)

P (A)=

1

3= P (B).

I due eventi non sono correlati, quindi possiamo fornire la seguente condizionedi indipendenza tra due eventi:

P (A ∩ B) = P (A/B)P (B) = P (A)P (B);P (A ∩ B) = P (B/A)P (A) = P (A)P (B).

Definizione 2.4.2 Due eventi A e B si dicono indipendenti se P (A∩B) =P (A)P (B).

Page 48: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 48

Esempio 2.4.12 Da un mazzo di 52 carte se ne estrae una a caso. Glieventi

A = La carta estratta e una figuraB = La carta estratta e di fiori

sono indipendenti?

Calcoliamo le probabilita dei due eventi:

P (A) =12

52, P (B) =

13

52

e dell’evento intersezione

P (A ∩ B) =3

52.

Il prodotto tra le probbabilita vale

P (A)P (B) =12

52

13

52=

3

52

quindi gli eventi sono effettivamente indipendenti.

Esempio 2.4.13 Un arciere deve colpire un bersaglio delimitato da tre cir-conferenze concentriche. Se colpisce il cerchio centrale ottiene 50 punti men-tre le due corone circolari portano 20 e 10 punti rispettivamente. Se mancail bersaglio non ottiene punti. La probabilita di colpire una delle tre parti delbersaglio e uguale all’inverso del punteggio relativo.(a) Calcolare la probabilita di mancare il bersaglio;(b) Calcolare se, avendo scoccato tre frecce, sia piu probabile ottenere 50 pun-ti colpendo una volta la parte centrale del bersaglio e mancandolo le altre duevolte oppure colpendo 2 volte la parte da 20 punti e una volta quella da 10.

(a) Calcoliamo la probabilita di centrare il bersaglio che e pari alla sommadelle probabilita di colpire ognuna delle tre parti:

P (Il bersaglio viene colpito) = 1

10+

1

20+

1

50=

17

100,

quindi

P (Il bersaglio viene mancato) = 1− 17

100=

83

100.

(b) Definiamo i seguenti eventi

Ai = Si ottengono 50 punti all’i−esimo colpoBi = Il bersaglio viene mancato all’i−esimo colpo

Page 49: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 49

Indicato con A l’evento si sono ottenuti 50 punti colpendo una volta il bersa-glio centrale risulta

A = (A1 ∩ B2 ∩ B3) ∪ (B1 ∩ A2 ∩ B3) ∪ (B1 ∩ B2 ∩ A3).

I tre eventi sono mutuamente esclusivi e hanno la stessa probabilita

P (A1 ∩ B2 ∩ B3) =1

50

(83

100

)2

e quindiP (A) ≃ 0.014.

Definiamo ora i seguenti eventi

Ci = Si ottengono 10 punti all’i−esimo colpoDi = Si ottengono 20 punti all’i−esimo colpo

Indicato con B l’evento si sono ottenuti 50 punti colpendo una volta il ber-saglio da 10 e due volte quello da 20

B = (C1 ∩D2 ∩D3) ∪ (D1 ∩ C2 ∩D3) ∪ (D1 ∩D2 ∩ C3).

I tre eventi hanno la stessa probabilita

P (C1 ∩D2 ∩ C3) =1

10

(1

20

)2

e quindiP (A) = 0.00075.

Esempio 2.4.14 Matteo lancia una moneta due volte. Luca lancia una mo-neta 4 volte. Determinare la probabilita che Matteo e Luca ottengano lostesso numero di teste.

Definiamo i seguenti eventi

Mi = Matteo ha ottenuto i testeLi = Luca ha ottenuto i testeAi = Mi ∩ Li,

Page 50: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 50

per i = 0, 1, 2. Gli eventi Ai sono mutuamente esclusivi quindi, detto Al’evento del quale dobbiamo calcolare la probabilita, risulta

A =2⋃

i=0

Ai

per cui

P (A) =2∑

i=0

P (Ai) =2∑

i=0

P (Mi)P (Li).

P (M0) =1

4, P (L0) =

1

16, P (A0) =

1

64

P (M1) =1

2, P (L1) =

1

4, P (A1) =

1

8

P (M2) =1

4, P (L2) =

6

16, P (A0) =

6

64pertanto

P (A) =1

64+

1

8+

6

64=

15

64.

2.5 Esercizi di riepilogo

Esercizio 2.5.1 In una scarpiera ci sono 4 paia di scarpe. In quanti modi sipossono scegliere quattro scarpe a caso? In quanti modi si possono sceglieredue scarpe destre e due sinistre?

Esercizio 2.5.2 Abbiamo chiesto al vicino di casa di innaffiare una piantamentre siamo fuori citta. Sappiamo che senza acqua la piantina morira conprobabilita 0.95 mentre con l’acqua la probabilita scende a 0.15. Sappiamoinoltre che la probabilita che il vicino si ricordi di innaffiare e pari a 0.8.(a) Qual e la probabilita che la pianta sia ancora viva al nostro rientro?(b) Se fosse morta qual e la probabilita che il vicino si sia dimenticato diinnaffiarla?

Esercizio 2.5.3 Ci sono due autobus urbani, uno della linea A e uno dellalinea B, che per un tratto fanno la medesima strada. Sull’autobus A ci sono25 passeggeri di cui 21 con il biglietto e 4 senza, mentre sull’autobus B ci

Page 51: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 51

sono 15 passeggeri di cui 11 con il biglietto e 4 senza. Alla fermata soloun passeggero scende dall’autobus A e sale sull’autobus B mentre gli altririmangono sugli autobus. Alla fermata successiva sull’autobus B sale uncontrollore che controlla un passeggero trovandolo senza biglietto. Calcolarela probabilita che sia proprio il passeggero che era sull’autobus A.

Esercizio 2.5.4 Siano A e B due eventi di uno stesso spazio campioneS e tali che A ⊂ B. Determinare in quale caso A e B possono essereindipendenti.

Esercizio 2.5.5 Si lancia una moneta non truccata due volte e si conside-rano i seguenti eventi

A = Non si ottiene mai testa al primo lancioB = Si ottiene almeno una croce.

Stabilire se i due eventi sono indipendenti. E se si lancia la moneta tre volte?

Esercizio 2.5.6 Si lanciano due dadi non truccati e si considerano i seguentieventi

A = La somma dei risultati e 7B = Il primo dado realizza 4C = Il secondo dado realizza 3.

Stabilire se gli eventi A e B ∩ C sono indipendenti.

Esercizio 2.5.7 Si lanciano due dadi non truccati e si considerano i seguentieventi

A = Non si ottegono due numeri pari o due numeri dispariB = La somma dei risultati e minore o uguale a 5.

Stabilire se i due eventi sono indipendenti.

Esercizio 2.5.8 Una moneta e truccata in modo tale che la probabilita chevenga testa e il doppio di quella che venga croce. Supponendo che la monetavenga lanciata tre volte calcolare la probabilita dei seguenti eventi

A = Escono almeno due testeB = Escono almeno due croci.

Page 52: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 2. INTRODUZIONE 52

Esercizio 2.5.9 Si supponga di avere due contenitori: nel primo ci sono 10palline azzurre e 5 nere, mentre nel secondo ci sono 5 palline azzurre e 10nere. Una pallina viene estratta dal primo e riposta nel secondo. Quindiviene estratta una pallina dal secondo.a) Calcolare la probabilita che questa seconda pallina sia nera.b) Supposto che questa sia nera, calcolare la probabilita che la prima estrattasia stata azzurra.

Esercizio 2.5.10 In un contenitore ci sono 5 palline nere, 3 azzurre e 2rosse. Vengono estratte in sequenza due palline senza restituzione. Calcolarela probabilita che la seconda pallina estratta sia rossa.

Esercizio 2.5.11 In tre contenitori vi sono rispettivamente il 50%, il 60%e il 70% di palline nere. Il primo contenitore ha il doppio delle palline delsecondo e il secondo ha lo stesso numero di palline del terzo. Tutti e trecontenitori sono svuotati in un quarto contenitore.a) Calcolare la probabilita che, estraendo a caso una pallina da questo nuovocontenitore, essa risulti nera.b) Supposto che cio sia avvenuto, calcolare la probabilita che provenga dalprimo contenitore.

Esercizio 2.5.12 In un contenitore vi sono rispettivamente 5 palline rossee 2 nere. Due palline vengono estratte a caso senza restituzione.a) Calcolare la probabilita che la seconda estratta sia rossa.b) Supposto cio avvenuto, calcolare la probabilita che anche la prima siarossa.

Page 53: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

Capitolo 3

Variabili Aleatorie

3.1 Introduzione

Considerando lo spazio campione di un esperimento non e detto che il risul-tato sia necessariamente un numero. Per esempio nel caso in cui si consideriun articolo prodotto da una fabbrica allora

S = difettoso, non difettoso .

Spesso e piu comodo avere a che fare con insiemi numerici percio puo essereconveniente associare ad ogni evento dello spazio campione un numero reale.

Definizione 3.1.1 Sia E un esperimento ed S lo spazio campione ad essoassociato. Una funzione X che associa ad un evento s ∈ S un numero realeX(s) e detta variabile aleatoria.

Osserviamo che la variabile aleatoria (al contrario di quanto faccia supporreil nome) e una funzione. Se lo spazio campione S e gia un insieme numericoallora X potrebbe essere semplicemente la funzione identita:

X(s) = s.

Definizione 3.1.2 Una variabile aleatoria che puo assumere un numero fi-nito o infinitamente numerabile di valori e detta discreta, mentre se puoassumere valori in un sottointervallo [a, b] ⊆ R e detta continua.

Supponiamo di considerare l’esperimento

E = lancio di due monete

53

Page 54: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 54

cui associamo lo spazio campione

S = CC,CT, TC, TT

allora possiamo definire la variabile aleatoria

X = numero di teste uscite

che assume i seguenti valori

X(TT ) = 2, X(CT ) = X(TC) = 1, X(CC) = 0.

Potremmo definire una seconda variabile aleatoria

Y = differenza tra il numero di teste uscite ed il numero di croci

per la quale

X(TT ) = 2, X(CT ) = X(TC) = 0, X(CC) = −2.

L’insieme dei valori assunti dalla variale aleatoria X e detto Range, e siindica con RX . Il Range di X risulta essere a sua volta uno spazio campioneai cui elementi possiamo associare una probabilita.

Definizione 3.1.3 Sia E un esperimento ed S il relativo spazio campione.Sia X una variabile aleatoria definita su S e sia RX il suo range. Sia B unevento rispetto ad RX , cioe B ⊂ RX . Se consideriamo l’evento

A = s ∈ S | X(s) ∈ B

allora A e B si dicono eventi equivalenti.

Definizione 3.1.4 Sia B un evento dello spazio RX e sia A ⊂ S equivalentea B allora si definisce

P (A) = P (B).

Se X e la variabile aleatoria definita nell’esempio precedente risulta

P (X = 2) = P (X = 0) =1

4, P (X = 1) =

1

2.

Page 55: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 55

3.2 Variabili aleatorie discrete

Sia X una variabile aleatoria discreta e sia

RX = x1, x2, . . . , xn, . . . ,

allora vale la seguente definizione.

Definizione 3.2.1 Sia X una variabile aleatoria discreta. Ad ogni valore xk

e possibile associare un numero f(xk), chiamato probabilita di xk, tale che

P (X = xk) = f(xk).

La funzione f(x) e detta densita di probabilita, e gode delle seguenti proprieta:

(a) f(xk) ≥ 0, ∀k;

(b)∑

k f(xk) = 1.

L’insieme delle coppie (xk, f(xk)), k = 1, 2, 3, . . . , e detto distribuzione diprobabilita di X.E ovvio che il valore assunto dalla funzione f(xk) dipende dalla probabilitadegli eventi dello spazio campione S equivalenti all’evento X = xk.

Definizione 3.2.2 Se X e una variabile aleatoria discreta si definisce lafunzione di distribuzione cumulativa la funzione tale che

F (x) = P (X ≤ x).

Il valore F (x) associa ad ogni valore reale x (indipendentemente dal fattoche x sia uno dei valori assunti da X) la probabilita che X assuma valori piupiccoli. La funzione F (x) e una funzione definita su R, monotona crescenteda 0 a 1 ed il suo grafico e una funzione a gradino, infatti

F (x) =∑

xj≤x

f(xj).

Se e nota invece la funzione cumulativa allora per calcolare la densita diprobabilita e sufficiente calcolare la differenza tra due valori successivi diF (x) :

f(xk) = P (X = xk) = F (xk)− F (xk−1).

Page 56: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 56

Esempio 3.2.1 Determinare la funzione cumulativa della variabile aleatoriapari al numero di teste uscite in due lanci di una moneta non truccata.

Abbiamo gia determinato la densita di probabilita

P (X = 0) = f(0) =1

4, P (X = 1) = f(1) =

1

2, P (X = 2) = f(2) =

1

4.

Riportiamo nella seguente tabella i valori della funzione F (x) :

x F (x)x < 0 F (x) = 0

0 ≤ x < 1 F (x) =1

4

1 ≤ x < 2 F (x) =1

4+

1

2=

3

4

x ≥ 2 F (x) = 1

Tracciamo ora il grafico della funzione.

••

1/4

3/41

+ +1 2

Esempio 3.2.2 Determinare il valore k ∈ R tale che la funzione

f(x) =

(1

2

)x

x = 1, 2, 3, 4

k x = 5

sia una densita di probabilita e determinare la relativa funzione cumulativa.

Page 57: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 57

Affinche f(x) sia una densita di probabilita, deve essere k ≥ 0 e inoltre lasomma dei suoi valori deve essere 1. Quindi

k = 1− 1

2− 1

4− 1

8− 1

16=

1

16.

Quindi

x F (x)x < 1 F (x) = 0

1 ≤ x < 2 F (x) =1

2

2 ≤ x < 3 F (x) =1

4+

1

2=

3

4

3 ≤ x < 4 F (x) =3

4+

1

8=

7

8

4 ≤ x < 5 F (x) =7

8+

1

16=

15

16

x ≥ 5 F (x) = 1

•• • • •

1 2 3 4 5

Esempio 3.2.3 Sia assegnata la seguente funzione cumulativa della varia-bile aleatoria X:

F (x) =

0 x < −20.2 −2 ≤ x < 00.7 0 ≤ x < 21 x ≥ 2

Il grafico della funzione F (x) e il seguente:

Page 58: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 58

••

−2 2

Esempio 3.2.4 Si effettua il lancio di due dadi. La variabile X e la sommadei risultati di due dadi. Determinare la densita di probabilita e la relativafunzione cumulativa.

Il range di X e composto da tutti i numeri interi compresi tra 2 e 12. Consi-derando il rapporto tra i casi favorevoli ed i risultati possibili (ovvero 36) ladensita di probabilita e la seguente

xk f(xk) xk f(xk)

21

368

5

36

32

369

4

36

43

3610

3

36

54

3611

2

36

65

3612

1

36

76

36

Page 59: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 59

x F (x)x < 2 F (x) = 0

2 ≤ x < 3 F (x) =1

36

3 ≤ x < 4 F (x) =1

36+

2

36=

3

36

4 ≤ x < 5 F (x) =3

36+

3

36=

6

36

5 ≤ x < 6 F (x) =6

36+

4

36=

10

36

6 ≤ x < 7 F (x) =10

36+

5

36=

15

36

7 ≤ x < 8 F (x) =15

36+

6

36=

21

36

8 ≤ x < 9 F (x) =21

36+

5

36=

26

36

9 ≤ x < 10 F (x) =26

36+

4

36=

30

36

10 ≤ x < 11 F (x) =30

36+

3

36=

33

36

11 ≤ x < 12 F (x) =33

36+

2

36=

35

36

x ≥ 12 F (x) = 1

3.3 Variabili aleatorie continue

Supponiamo che il range di X sia composto da un numero di valori moltoelevato, per esempio tutti appartenenti all’intervallo [a, b] e che a ciascunodi tali valori venga associata una probabilita p(xi). Puo essere molto piucomodo idealizzare tale situazione ipotizzando che X possa assumere tutti ivalori compresi tra a e b. In questo caso non ha piu senso parlare di probabi-

Page 60: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 60

lita p(xi) perche l’insieme dei valori xi non e numerabile, quindi formalmentepossiamo dare la seguente definizione.

Definizione 3.3.1 Ad una variabile aleatoria continua X e possibile asso-ciare una funzione f(x), detta funzione densita di probabilita tale che

(a) f(x) ≥ 0, ∀x;

(b)

∫ +∞

−∞f(x)dx = 1.

Si definisce la probabilita che X sia compresa tra i valori reali a e b, −∞ <a < b < +∞, nel seguente modo

P (a ≤ X ≤ b) =

∫ b

a

f(x)dx.

Esempio 3.3.1 Sia assegnata la funzione

f(x) =

x

80 ≤ x ≤ 4

0 altrimenti.

Verificare che f(x) e una densita di probabilita di una variabile aleatoriacontinua X e calcolare:1) P (X ≤ 2)2) P (1 ≤ X ≤ 3).

Deve essere f(x) ≥ 0 e∫ +∞

−∞f(x)dx = 1.

Dunque∫ +∞

−∞f(x)dx =

∫ 4

0

x

8dx =

1

16

[x2]4

0= 1.

1)

P (X ≤ 2) =

∫ 2

−∞f(x)dx =

∫ 2

0

x

8dx =

1

16

[x2]2

0=

1

4.

2)

P (1 ≤ X ≤ 3) =

∫ 3

1

x

8dx =

1

16

[x2]3

1=

1

2.

Page 61: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 61

Definizione 3.3.2 Si definisce funzione di distribuzione cumulativa dellavariabile aleatoria continua X la funzione

F (x) = P (X ≤ x) =

∫ x

−∞f(t)dt.

Affinche la definizione di funzione di distribuzione cumulativa abbia sensoe sufficiente che la funzione f(x) sia integrabile, quindi potrebbe anche nonessere continua. La funzione F (x) invece e una funzione cotinua e monotonacrescente da 0 a 1 e, negli intervalli in cui la funzione f(x) e continua risultacoincidere con la sua derivata:

f(x) =d

dxF (x).

Se a, b sono due numeri reali tali che a < b allora

P (a ≤ X ≤ b) = F (b)− F (a).

Infatti

P (a ≤ X ≤ b) =

∫ b

a

f(t)dt

=

∫ a

−∞f(t)dt+

∫ b

a

f(t)dt−∫ a

−∞f(t)dt

=

∫ b

−∞f(t)dt−

∫ a

−∞f(t)dt = F (b)− F (a).

Quest’ultima proprieta puo essere vista come una conseguenza del fatto che,in ipotesi di continuita, F (x) e la primitiva di f(x). Ovviamente risulta

P (X ≥ x) = 1− P (X < x) =

∫ +∞

x

f(t)dt.

Osservazione. Nel continuo l’espressione evento di probabilita nulla non esinonimo di evento impossibile come invece accade nel discreto. Dunque

P (X = x) = 0, ∀x ∈ R

se X e una variabile aleatoria continua. Nel continuo ha senso solo calcolarela probabilita che una variabile aleatoria sia compresa tra due valori reali.

Page 62: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 62

Una conseguenza di questo fenomeno e che se X e una variabile aleatoriacontinua, allora

P (X ≤ a) = P (X < a)P (X ≥ a) = P (X > a)P (a ≤ X ≤ b) = P (a < X < b)

Quindi se x ∈ R il valore f(x) non rappresenta una probabilita ma solo unintegrale e una probabilita.

Esempio 3.3.2 Sia assegnata la funzione

f(x) =

x

20 ≤ x ≤ 2

0 altrimenti.

Verificare che f(x) e una densita di probabilita di una variabile aleatoriacontinua X e calcolare la funzione cumulativa.

Deve essere f(x) ≥ 0 e∫ +∞

−∞f(x)dx = 1.

Dunque∫ +∞

−∞f(x)dx =

∫ 2

0

x

2dx =

1

4

[x2]4

0= 1.

Se x ≤ 0 risulta ovviamente F (x) = 0.Se 0 ≤ x ≤ 2 :

F (x) =

∫ x

−∞f(t)dt =

∫ x

0

t

2dt =

x2

4,

Se x > 2 allora F (x) = 1.

Esempio 3.3.3 Considerata la variabile aleatoria X avente la seguente den-sita di probabilita

f(x) =

x 0 < x ≤ 12− x 1 < x ≤ 20 altrimenti

determinare:a) P (0.2 ≤ X ≤ 0.8)b) P (0.6 ≤ X ≤ 1.2)c) P (X ≥ 1.8).

Page 63: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 63

a)

P (0.2 ≤ X ≤ 0.8) =

∫ 0.8

0.2

xdx =

[x2

2

]0.8

0.2

=0.64− 0.04

2= 0.3;

b)

P (0.6 ≤ X ≤ 1.2) =

∫ 1.2

0.6

f(x)dx =

∫ 1

0.6

xdx+

∫ 1.2

1

(2− x)dx

=

[x2

2

]1

0.6

+

[

−(2− x)2

2

]1.2

1

=1− 0.36

2+

1− 0.64

2= 0.5;

c)

P (X ≥ 1.8) =

∫ 2

1.8

(2− x)dx =

[

−(2− x)2

2

]2

1.8

=0.04

2= 0.02.

Osservazione In un caso come quello dell’esempio precedente si potrebbecalcolare la probabilita evitando di integrare la funzione f(x). Infatti laprobabilita coincide con l’area del trapezio evidenziato in rosso nella seguentefigura, pertanto potrebbe essere calcolata sfruttando la ben nota formula.

0.2 0.8La base maggiore del trapezio coincide con f(0.8) e misura 0.8, la base minorecon f(0.2) e vale 0.2, l’altezza con il segmento congiungente i punti (0.8, 0)e (0.2, 1) e peranto misura 0.6. L’area e pari a

Area =0.6

2(0.8 + 0.2) = 0.3

coincidente con il valore trovato. In modo analogo si potrebbe procederenegli altri due casi. E chiaro che tale procedura e applicabile solo quando laprobabilita coincide con l’area di una figura geometrica piana nota.

Page 64: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 64

Esempio 3.3.4 Calcolare la funzione cumulativa della variabile aleatoria lacui densita di probabilita e la stessa dell’esempio precedente.

Se x ≤ 0 risulta ovviamente F (x) = 0.Se 0 ≤ x ≤ 1 :

F (x) =

∫ x

−∞f(t)dt =

∫ x

0

tdt =x2

2;

Se 1 < x ≤ 2

F (x) =

∫ x

−∞f(t)dt =

∫ x

0

tdt =

∫ 1

0

t dt+

∫ x

1

(2− t)dt

=1

2+

∫ x

1

(2− t)dt =1

2+

[

−(2− t)2

2

]x

1

= −x2

2+ 2x− 1.

Se x > 2 allora F (x) = 1.

Esempio 3.3.5 Determinare il valore della costante c ∈ R in modo tale chela funzione

f(x) =

cx2 0 < x ≤ 30 altrimenti

sia una densita di probabilita e calcolarne la relativa funzione cumulativa ela probabilita P (1 < X < 2).

Imponiamo innanzitutto che l’integrale della funzione f(x) sia uguale a 1:

∫ 3

0

f(x)dx =

∫ 3

0

cx2dx =c

3

[x3]3

0= 9c

quindi deve necessariamente c = 1/9 :

f(x) =

x2

90 < x ≤ 3

0 altrimenti.

Se x ≤ 0 risulta ovviamente F (x) = 0.Se 0 ≤ x ≤ 3 :

F (x) =

∫ x

−∞f(t)dt =

∫ x

0

t2

9dt =

x2

27;

Page 65: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 65

Se x > 3 allora F (x) = 1.Conoscendo la funzione cumulativa possiamo determinare la probabilita ri-chiesta come differenza tra i valori della F (x) :

P (1 < X < 2) = F (2)− F (1) =8

27− 1

27=

7

27.

3.4 Funzioni di variabile aleatoria

Poiche il range della valore aleatoria X e esso stesso uno spazio campione hasenso poter definire sullo stesso insieme una funzione H(X) in modo tale che

Y = H(X)

sia essa stessa una variabile aleatoria la cui densita di probabilita dipendeda quella di X. Per esempio se X e discreta ed assume valori x1, x2, . . . allora possiamo identificare l’insieme dei valori

Y = H(X) = y1, y2, . . . ed associare la probabilita

p(yj) = P (Y = yj) = P (H(X) = yj) = p(xi)

se yj = H(xi) (osserviamo che il valore xi potrebbe non essere unico). Unavolta nota la densita di probabilita, allora si puo dare la seguente definizione.Per esempio se

X = −2,−1, 0, 1, 2con densita di probabilita

P (X = 0) =1

2, P (X = −2) = P (X = −1) =

1

8,

P (X = 2) =1

16, P (X = 1) =

3

16,

allora la funzione di variabile aleatoria Y = X2, ha spazio campione

Y = 0, 1, 4e densita di probabilita

P (Y = 0) =1

2, P (Y = 1) =

5

16, P (Y = 4) =

3

16.

Page 66: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 66

3.5 Variabili aleatorie bidimensionali

Supponiamo che ad un esperimento E con spazio campione S siano associatedue variabili aleatorie X = X(s) e Y = Y (s). Allora la coppia (X, Y ) si dicevariabile aleatoria bidimensionale. Se (X, Y ) e discreta, cioe

X = x1, x2, . . . , xm, Y = y1, y2, . . . , yn

allora ad ogni possibile uscita (xi, yj) e possibile associare un numero p(xi, yj)che rappresenta la probabilita P (X = xi, Y = yj) e che soddisfa le seguenticondizioni:

1. p(xi, yj) ≥ 0 per ogni i, j;

2.m∑

i=1

n∑

j=1

p(xi, yj) = 1.

Se (X, Y ) e una variabile aleatoria continua nella regione R ⊂ R2, allora si

definisce funzione densita di probabilita congiunta, f(x, y), la funzione chesoddisfa le seguenti condizioni:

1. f(x, y) ≥ 0 per ogni (x, y) ∈ R;

2. ∫∫

Rf(x, y)dxdy = 1.

L’insieme dei valori che la coppia (X, Y ), RX×Y , puo assumere si dice Range.Anche per le variabili aleatorie bidimensionali si possono definire gli eventiequivalenti. Infatti se B ⊂ RX×Y allora l’evento

A = s ∈ S | (X(s), Y (s)) ∈ B

e equivalente all’evento B. A tale evento e possibile associare la seguenteprobabilita:

P (B) =∑ ∑

(xi,yj)∈B

p(xi, yj).

Se la variabile e continua allora

P (B) =

∫∫

B

f(x, y)dxdy.

Page 67: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 67

In modo analogo a quanto visto nel caso monodimensionale si puo definirela funzione cumulativa della variabile aleatoria (X, Y ) come

F (x, y) = P (X ≤ x, Y ≤ y).

Nel caso continuo

F (x, y) =

∫ x

−∞

∫ y

−∞f(s, t)ds dt,

mentre nel caso discreto

F (x, y) =∑

xi≤x

yj≤y

p(xi, yj).

Assegnata la variabile aleatoria bidimensionale (X, Y ) e possibile ricavare lecosiddette densita di probabilita marginali delle singole variabili aleatorieX eY . Nel caso discreto calcolare la probabilita che X = xi significa considerarel’insieme degli eventi in cui la variabile bidimensionale assume valore (X =xi, Y = y1) oppure (X = xi, Y = y2), e cosı via. La probabilita puo esserequindi calcolata come somma delle probabilita di tali singoli eventi

p(xi) = P (X = xi) =∞∑

j=1

p(xi, yj).

Tale funzione, calcolata per ogni xi, prende il nome appunto di densita diprobabilita marginale di X. In modo analogo si puo definire quella di Y :

p(yj) = P (Y = yj) =∞∑

i=1

p(xi, yj).

Nel caso continuo se f(x, y) e la funzione densita di probabilita congiuntadi (X, Y ) allora le funzioni densita di probabilita marginali di X e Y sidefiniscono come

g(x) =

∫ +∞

−∞f(x, y)dy, h(y) =

∫ +∞

−∞f(x, y)dx.

Se le variabili X e Y sono indipendenti allora tra le probabilita marginali equella congiunta esiste la seguente proprieta:

p(xi, yj) = p(xi)p(yj), per ogni i, j

Page 68: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 68

nel caso discreto, e

f(x, y) = g(x)h(y), per ogni x, y

nel caso continuo.

Esempio 3.5.1 Una variabile aleatoria discreta bidimensionale (X, Y ) haprobabilita positiva solo nelle quattro coppie (0, 0), (0, 1), (1, 0) e (1, 1) e, inparticolare la probabilita di ciascuna delle prime tre coppie e 1/6. Determi-nare le densita di probabilita marginali e calcolare P (XY = 0/X + Y ≥1).

Poiche la somma delle probabilita deve essere 1 la probabilita della coppia(1, 1) e 1/2. Riportiamo i valori in una tabella

Y 0 1X0 1/6 1/61 1/6 1/2

Per calcolare le probabilita marginali di X e Y basta fare la somma deglielementi sulle righe e sulle colonne rispettivamente.

P (X = 0) =1

6+

1

6=

1

3

P (X = 1) =1

6+

1

2=

2

3

P (Y = 0) =1

6+

1

6=

1

3

P (Y = 1) =1

6+

1

2=

2

3.

Ricordando la definizione di probabilita condizionata

P (XY = 0/X + Y ≥ 1) =P (XY = 0 ∩ X + Y ≥ 1)

P (X + Y ≥ 1).

X + Y ≥ 1 = (0, 1), (1, 0), (1, 1) ⇒ P (X + Y ≥ 1) =5

6

XY = 0∩X + Y ≥ 1 = (0, 1), (1, 0) ⇒ P (XY = 0∩X+Y ≥ 1) = 2

6

P (XY = 0/X + Y ≥ 1) =2

6

6

5=

2

5.

Page 69: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 69

Esempio 3.5.2 Una variabile bidimensionale (X, Y ) di tipo discreto as-sume valori con probabilita positive nelle otto coppie (i, j), i = 0, 1,−1,j = 0, 1,−1, (i, j) 6= (0, 0). La densita e

f(i, j) =1

6(i2 + j2).

a) Mostrare che f(i, j) e definita correttamente.

b) Calcolare le densita di probabilita X e Y .

c) Calcolare P (|XY | = 1) e P (X + Y > 0).

a) Riportiamo i valori della densita di probabilita in una tabella

Y −1 0 1X−1 1/12 1/6 1/120 1/6 0 1/21 1/12 1/6 1/12

La somma delle probabilita e pari a 1 quindi la densita di probabilita edefinita correttamente.b) Le densita marginali si ottengono sommando i valori sulle righe

P (X = −1) =1

12+

1

6+

1

12=

1

3

P (X = 0) =1

6+

1

6=

1

3

P (X = 1) =1

12+

1

6+

1

12=

1

3

P (Y = −1) =1

12+

1

6+

1

12=

1

3

P (Y = 0) =1

6+

1

6=

1

3

P (Y = 1) =1

12+

1

6+

1

12=

1

3

Page 70: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 70

c) Gli eventi richiesti sono

|XY | = 1 = (−1,−1), (−1, 1), (1,−1), (1, 1)

P (|XY | = 1) =1

3;

X + Y > 0 = (0, 1), (1, 0), (1, 1)

P (X + Y > 0) =1

6+

1

6+

1

12=

5

12.

3.6 Valore atteso di una variabile aleatoria

Definizione 3.6.1 Sia X una variabile aleatoria discreta che puo assumerevalori x1, x2, . . . , e sia

f(xi) = P (X = xi), i = 1, 2, . . . , n,

la sua densita di probabilita allora si definisce valore atteso di X, oppureattesa matematica di X, denotato con E(X), la quantita:

E(X) =n∑

i=1

xip(xi),

purche, nel caso n = ∞, la serie converga assolutamente.

Il valore atteso di una variabile aleatoria si indica spesso con µ. Il valore attesosi avvicina al valor medio in senso probabilistico. Se i valori sono equiproba-bili infatti esso coincide esattamente con il valor medio. Se consideriamo lavariabile aleatoria

X = Risultato del lancio di un dado

allora

E(X) =6∑

i=1

1

6i = 3.5.

Quindi il valore atteso potrebbe essere un valore non assunto dalla variabilealeatoria.Consideriamo ora come esempio la variabile aleatoria X uguale alla somma

Page 71: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 71

dei risultati nel lancio di due dadi. Abbiamo gia calcolato la densita diprobabilita, calcoliamone ora il valore atteso

E(X) = 21

36+3

2

36+4

3

36+5

4

36+6

5

36+7

6

36+8

5

36+9

4

36+10

3

36+11

2

36+12

1

36= 7.

Esempio 3.6.1 Supponiamo ora di voler calcolare il valore atteso del gua-dagno di uno scommettitore che gioca 10 e al Gioco del Lotto puntandosull’uscita di un numero su una certa ruota. In questo caso la vincita paga11 volte la puntata.

Il giocatore punta su 5 numeri quindi la probabilita di vincita e

P (V incita) =5

90

nel qual caso vincera 11 volte 10 e, cioe 110, ma avendone giocati 10 il ricavoe pari a 100 e. La probabilita di perdita e

P (Perdita) =85

90

nel qual caso il ricavo sara pari a −10 e. Il valore atteso del ricavo R epertanto:

E(R) =5

90100 − 85

9010 = −35

9≃ −3.89.

Definizione 3.6.2 Se X e una variabile aleatoria continua con funzionedensita di probabilita f(x) allora si definisce valore atteso di X il numero

E(X) =

∫ +∞

−∞xf(x)dx.

Anche in questo caso il valore atteso esiste se l’integrale improprio e unvalore finito. I seguenti due teoremi saranno utili per descrivere le proprietadel valore atteso.

Teorema 3.6.1 Se X e una variabile aleatoria e Y = H(X) allora:

(a) se X e discreta e p(xi) = P (X = xi) allora

E(H(X)) =∞∑

i=1

H(xi)p(xi);

Page 72: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 72

(b) se X e continua con funzione densita di probabilita f(x) allora

E(H(X)) =

∫ +∞

−∞H(x)f(x)dx.

Teorema 3.6.2 Se (X, Y ) e una variabile aleatoria bidimensionale e Z =H(X, Y ) allora:

(a) Se Z e discreta e p(xi, yj) = P (X = xi, Y = yj) allora

E(Z) =∞∑

i=1

∞∑

j=1

H(xi, yj)p(xi, yj);

(b) Se Z e continua ed f(x, y) e la funzione densita di probabilita di (X, Y )allora

E(Z) =

∫ +∞

−∞

∫ +∞

−∞H(x, y)f(x, y)dxdy.

3.6.1 Proprieta del valore atteso

In questo paragrafo saranno descritte le proprieta del valore atteso, quandosara necessario verificarle supporremo, per semplicita, che X sia una variabilealeatoria continua:

1. se X = C, costante, allora E(X) = C, infatti

E(X) =

∫ +∞

−∞xf(x)dx =

∫ +∞

−∞Cf(x)dx = C.

2. se C e una costante allora E(CX) = CE(X), infatti

E(CX) =

∫ +∞

−∞Cxf(x)dx = C

∫ +∞

−∞xf(x)dx = CE(X).

3. se (X, Y ) e una variabile aleatoria bidimensionale allora

E(X + Y ) = E(X) + E(Y ),

Page 73: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 73

infatti

E(X + Y ) =

∫ +∞

−∞

∫ +∞

−∞(x+ y)f(x, y)dxdy

=

∫ +∞

−∞

∫ +∞

−∞xf(x, y)dxdy +

∫ +∞

−∞

∫ +∞

−∞yf(x, y)dxdy

=

∫ +∞

−∞xdx

∫ +∞

−∞f(x, y)dy +

∫ +∞

−∞ydy

∫ +∞

−∞f(x, y)dx

=

∫ +∞

−∞xh(x)dx+

∫ +∞

−∞yg(y)dy = E(X) + E(Y );

4. se X ed Y sono due variabili aleatorie indipendenti allora

E(XY ) = E(X)E(Y ),

infatti

E(XY ) =

∫ +∞

−∞

∫ +∞

−∞xyf(x, y)dxdy

=

∫ +∞

−∞

∫ +∞

−∞xyg(x)h(y)dxdy

=

∫ +∞

−∞xg(x)dx

∫ +∞

−∞yh(y)dy = E(X)E(Y ).

Esempio 3.6.2 Determinare il valore atteso della variabile aleatoria X de-finita come il numero di teste ottenute con tre lanci successivi di una monetanon truccata.

Page 74: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 74

Determiniamo prima la densita di probabilita di X:

CCC X = 0 P (X = 0) =1

8

CCT

CTC X = 1 P (X = 1) =3

8TCC

TTC

TCT X = 2 P (X = 2) =3

8CTT

TTT X = 3 P (X = 3) =1

8

E(X) = 01

8+ 1

3

8+ 2

3

8+ 3

1

8=

3

2.

Esempio 3.6.3 Si lancia un dado ed un giocatore vince 1000 e se esce 2,2000 e se esce 4, 6000 e se esce 6, mentre perde 1000 e se esce un numerodispari. Calcolare il valore atteso del guardagno del giocatore.

E(X) = 10001

6+ 2000

1

6+ 6000

1

6− 1000

1

2= 1000.

3.7 Varianza di una variabile aleatoria

Data una variabile aleatoria X della quale e nota la densita e chiaro che ilvalore atteso non riesce a riassumere da solo le caratteristiche fondamentalidi tale densita, in quanto non tiene conto, per esempio, della dispersione deivalori. Per esempio una variabile aleatoria che puo assumere il solo valore0 con probabilita 1 ha lo stesso valore atteso di una variabile aleatoria chepuo assumere come valori 1000 e −1000 entrambi con probabilita 1/2, cioe0, ma e chiaro che la seconda ha una variabilita superiore alla prima, che ecostante. Poiche i valori sono distribuiti intorno al valore atteso si potrebbemisurare la loro variabilita calcolando |E[X−E(X)]|. Tuttavia, per un buonnumero di ragioni, risulta piu conveniente la seguente definizione.

Page 75: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 75

Definizione 3.7.1 Sia X una variabile aleatoria, si definisce Varianza diX, e si denota con V (X) o con σ2

X , la quantita:

V (X) = E[(X − E(X))2]. (3.1)

Sviluppando il termine quadratico dell’equazione (3.1)

V (X) = E[(X − E(X))2] = EX2 − 2XE(X) + E(X)2

= E(X2)− 2E(X)E(X) + E(X)2 = E(X2)− [E(X)]2.

Calcoliamo ora la varianza della variabile aleatoria X che indica il risultatodel lancio di un dado allora:

E(X) =7

2

E(X2) =1

6

6∑

i=1

i2 =91

6

Quindi

V (X) =91

6− 49

4=

35

12.

La varianza di X gode delle seguenti proprieta:

1. se C e una costante allora V (C) = 0;infatti

V (C) = E(C2)− (E(C))2 = C2 − C2 = 0.

2. se C e una costante allora V (X + C) = V (X);infatti

E[(X + C)2

]= E(X2 + 2CX + C2) = E(X2) + 2CE(X) + C2

[E(X + C)]2 = [E(X) + C]2 = (E(X))2 + 2CE(X) + C2

V (X + C) = E(X2) + 2CE(X) + C2 − (E(X))2 − 2CE(X)− C2

= E(X2)− (E(X))2 = V (X).

3. se C e una costante allora V (CX) = C2V (X);infatti

V (CX) = E(C2X2)− (E(CX))2 = C2E(X2)− C2(E(X))2

= C2 [E(X2)− (E(X))2] = C2V (X).

Page 76: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 76

4. se X e Y sono due variabili aleatorie indipendenti alloraV (X + Y ) = V (X) + V (Y ).Infatti applicando l’ipotesi che le due variabili sono indipendenti

E((X + Y )2) = E(X2 + 2Y X + Y 2) = E(X2) + E(Y 2) + 2E(X)E(Y )

[E(X + Y )]2 = (E(X))2 + (E(Y ))2 + 2E(X)E(Y ),

Facendo la differenza tra le ultime due equazioni segue la tesi.

Esempio 3.7.1 Determinare la varianza della variabile aleatoria X definitacome il numero di teste ottenute con tre lanci successivi di una moneta nontruccata.

Abbiamo gia determinato E(X) :

E(X) =3

2

calcoliamo E(X2) :

E(X2) = 01

8+ 1

3

8+ 22

3

8+ 32

1

8= 3.

Quindi

V (X) = E(X2)− (E(X))3 = 3− 9

4=

3

4.

Esempio 3.7.2 Calcolare la varianza della variabile aleatoria continua aven-te la seguente funzione densita di probabilita:

f(x) =

x

20 ≤ x ≤ 2

0 altrimenti.

E(X) =

∫ 2

0

xx

2dx =

1

2

∫ 2

0

x2 dx =1

2

[x3

3

]2

0

=4

3.

E(X2) =

∫ 2

0

x2x

2dx =

1

2

∫ 2

0

x3 dx =1

2

[x4

4

]2

0

= 2.

V (x) = E(X2)− (E(X))2 = 2− 16

9=

2

9.

Page 77: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 77

Esempio 3.7.3 Calcolare il valore atteso e la varianza della variabile alea-toria continua X avente la seguente funzione densita di probabilita:

f(x) =

3

4(1− x2) −1 ≤ x ≤ 1

0 altrimenti.

E(X) =

∫ 1

−1

3

4x(1− x2)dx = 0

in quanto la funzione integranda e dispari.

E(X2) =

∫ 1

−1

x23

4(1− x2)dx =

3

2

∫ 1

0

(x2 − x4) dx =3

2

[x3

3− x5

5

]1

0

=1

5.

V (x) = E(X2) =1

5.

Esempio 3.7.4 Trovare il valore della costante a ∈ R in modo che la fun-zione

f(x) =

x

20 ≤ x ≤ 1

a− x 1 < x ≤ 2

0 altrimenti

sia la densita di probabilita di una variabile aleatoria continua X. Calcolareil valore atteso e la varianza di X.

Deve essere f(x) ≥ 0, per ogni x ∈ R, quindi a ≥ 2. Imponiamo ora chel’integrale di f(x) sia 1.

∫ +∞

−∞f(x)dx =

∫ 1

0

x

2dx+

∫ 2

1

(a− x)dx

=

[x2

4

]1

0

+

[

ax− x2

2

]2

1

=1

4+ 2a− 2 +

1

2= a− 5

4= 1

Page 78: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 78

quindi a = 9/4.

E(X) =

∫ 1

0

xx

2dx+

∫ 2

1

x

(9

4− x

)

dx

=

[x3

6

]1

0

+

[9

8x2 − x3

3

]2

1

=1

6+

9

2− 8

3− 9

8+

1

3=

29

24.

E(X2) =

∫ 1

0

x2x

2dx+

∫ 2

1

x2

(9

4− x

)

dx

=

[x4

8

]1

0

+

[3

4x3 − x4

4

]2

1

=1

8+ 6− 4− 3

4+

1

4=

13

8.

V (x) =13

8−(29

24

)2

=95

576.

Definizione 3.7.2 Si definisce deviazione standard della variabile aleatoriaX, e si indica con σX , la radice quadrata della varianza:

σX =√

V (X).

Un’osservazione finale, ma molto importante, riguarda la proprieta di cuigode ogni generica variabile aleatoria X (sia discreta che continua) tale che

E(X) = µ, V (X) = σ2X

e che la variabile

Y =X − µ

σX

ha valore atteso 0 e varianza (e deviazione standard) 1:

E(Y ) = 0, V (Y ) = 1.

Page 79: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 79

3.7.1 Covarianza e coefficiente di correlazione

Cosı come il valore atteso e la varianza di una variabile aleatoria fornisco-no informazioni sulla densita di probabilita, qualche grandezza analoga puoessere definita nel caso di variabili aleatorie bidimensionali.

Definizione 3.7.3 Sia (X, Y ) una variabile aleatoria bidimensionale, si de-finisce Cov(X, Y ), la covarianza di X e Y , come:

Cov(X, Y ) = E [X − E(X)][Y − E(Y )] .

Sviluppando l’espressione della covarianza si trova una rappresentazione al-ternativa

Cov(X, Y ) = E [X − E(X)][Y − E(Y )]

= E XY − E(X)Y − E(Y )X + E(X)E(Y )

= E(XY )− E(X)E(Y )− E(X)E(Y ) + E(X)E(Y )

= E(XY )− E(X)E(Y ).

La covarianza gode delle seguenti proprieta:

1.Cov(X, Y ) = Cov(Y,X);

2. se Y = X allora coincide con la varianza di X, ovvero

Cov(X,X) = V (X);

3. la covarianza puo essere considerata come una misura del grado diindipendenza tra due variabili aleatorie, infatti se X e Y sono duevariabili aleatorie indipendenti allora la covarianza e nulla in quantorisulta

E(XY ) = E(X)E(Y );

4. indicando con V (X) e con V (Y ) le varianze delle due variabili si puoverificare che

V (X + Y ) = V (X) + V (Y ) + 2Cov(X, Y ),

Page 80: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 80

infatti, come visto in precedenza

E((X + Y )2) = E(X2 + 2Y X + Y 2) = E(X2) + E(Y 2) + 2E(XY )

[E(X + Y )]2 = (E(X))2 + (E(Y ))2 + 2E(X)E(Y ),

pertanto

V (X + Y ) = E(X2) + E(Y 2) + 2E(XY )− (E(X))2 − (E(Y ))2 − 2E(X)E(Y )

= V (X) + V (Y ) + 2 [E(XY )− E(X)E(Y )]

= V (X) + V (Y ) + 2Cov(X, Y ),

e, analogamente, si puo verificare che

V (X − Y ) = V (X) + V (Y )− 2Cov(X, Y )

5.Cov(αX + β, γY + δ) = αγCov(X, Y );

Esempio 3.7.5 Sia (X, Y ) una variabile aleatoria discreta bidimensionalecon la seguente densita di probabilita congiunta

Y −1 0 1X−1 1/6 1/12 1/41 1/4 1/6 1/12

a) Calcolare le densita di probabilita marginali;b) Calcolare E(X) ed E(Y );c) Calcolare la covarianza Cov(X, Y ).

a) La densita di probabilita marginali si calcolano facendo le soome delleprobabilita sulle righe e sulle colonne:

P (X = −1) =1

6+

1

12+

1

4=

1

2

P (X = 1) =1

6+

1

12+

1

4=

1

2

Page 81: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 81

P (Y = −1) =1

6+

1

4=

5

12

P (Y = 0) =1

12+

1

6=

3

12

P (Y = 1) =1

4+

1

12=

4

12.

b)

E(X) = −11

2+ 1

1

2= 0

E(Y ) = −15

12+ 0

3

12+ 1

4

12= − 1

12.

c) Dobbiamo determinare lo spazio campione RXY e la relativa densita diprobabilita della variabile aleatoria XY :

RXY = −1, 0, 1

P (XY = −1) =1

4+

1

4=

1

2

P (XY = 0) =1

12+

1

6=

3

12

P (XY = 1) =1

6+

1

12=

1

4.

E(XY ) = −11

2+ 0

3

12+ 1

1

4= −1

4.

Adesso possiamo calcolare la covarianza:

Cov(X, Y ) = E(XY )− E(X)E(Y ) = −1

4.

Definizione 3.7.4 Sia (X, Y ) una variabile aleatoria bidimensionale, si de-finisce ρ, il coefficiente di correlazione tra X e Y , come:

ρ =Cov(X, Y )√

V (X)V (Y ).

Page 82: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 82

Esplicitando tale coefficiente e uguale a

ρ =E(XY )− E(X)E(Y )

V (X)V (Y ).

Il coefficiente di correlazione ρ e una covarianza normalizzata (cioe non di-pende dalle unita di misura utilizzate per calcolare i valori diX e Y ). Indicaticon σX e σY le deviazioni standard di X e Y rispettivamente risulta

ρ = Cov

(X

σX

,Y

σY

)

=Cov(X, Y )

σXσY

.

Per ogni coppia di variabili aleatorie X, Y risulta

−1 ≤ ρ ≤ 1.

Infatti risulta

V

(X

σX

+Y

σY

)

= V

(X

σX

)

+ V

(Y

σY

)

+ 2Cov

(X

σX

,Y

σY

)

= 1 + 1 + 2ρ = 2(1 + ρ) ≥ 0

quindi ρ ≥ −1. Analogamente

V

(X

σX

− Y

σY

)

= V

(X

σX

)

+ V

(Y

σY

)

− 2Cov

(X

σX

,Y

σY

)

= 1 + 1− 2ρ = 2(1− ρ) ≥ 0

quindi ρ ≤ 1.Infine, si puo dimostrare che

Y = αX + β ⇒ ρ = ±1.

Infatti se Y = αX + β segue

E(XY ) = E [X(αX + β)] = αE(X2) + βE(X)

E(X)E(Y ) = E(X)EαX + β) = α(E(X))2 + βE(X)

quindiCov(X,αX + β) = αV (X).

Page 83: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 83

InoltreV (Y ) = α2V (X)

quindi

ρ =Cov(X, Y )√

α2(V (X))2=

αV (X)

|α|V (X)= ±1.

3.8 La disuguaglianza di Chebyshev

Conoscendo la densita di probabilita della variabile aleatoria X si possonodeterminare sia il suo valore atteso che la varianza. Il viceversa ovviamentenon e vero. E tuttavia possibile trovare sia maggiorazioni che minorazioni diprobabilita del tipo P (|X − E(X)| ≤ c). Consideriamo il seguente risultatopreliminare.

Teorema 3.8.1 (Disuguaglianza di Markov) Se X e una variabile alea-toria nonnegativa allora, per ogni α > 0,

P (X ≥ α) ≤ E(X)

α.

Dimostrazione. Supponiamo che X sia continua e sia f(x) la sua funzionedensita di probabilita. Quindi

E(X) =

∫ ∞

0

xf(x)dx =

∫ α

0

xf(x)dx+

∫ ∞

α

xf(x)dx

≥∫ ∞

α

xf(x)dx ≥∫ ∞

α

αf(x)dx

= α

∫ ∞

α

f(x)dx = αP (X ≥ α).

La tesi segue dividendo entrambi i termini per α.

Teorema 3.8.2 (Disuguaglianza di Chebyshev) Sia X una variabile a-leatoria, µ il suo valore atteso e c una costante reale. Se E[(X − c)2] e unnumero finito ed ε un numero positivo allora

P (|X − c| ≥ ε) ≤ 1

ε2E[(X − c)2]

Page 84: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 84

Dimostrazione. Gli eventi |X − c| ≥ ε e (X − c)2 ≥ ε2 sono equivalenti,quindi equiprobabili. Poiche (X − c)2 e una variabile aleatoria non negativapossiamo applicare la disuguaglianza di Markov con α = ε2:

P (|X − c| ≥ ε) = P ((X − c)2 ≥ ε2) ≤ 1

ε2E[(X − c)2].

La disuguaglianza di Chebyshev puo essere formulata in modo equivalente

1− P (|X − c| ≥ ε) ≥ 1− 1

ε2E[(X − c)2]

da cui si ricava

P (|X − c| ≤ ε) ≥ 1− 1

ε2E[(X − c)2].

Se c = µ la disuguaglianza diventa

P (|X − µ| ≥ ε) ≤ 1

ε2V (X)

e inoltre se ε = kσX , dove σ2X = V (X):

P (|X − µ| ≥ kσX) ≤1

k2.

Esempio 3.8.1 Il numero di pezzi prodotti da una fabbrica in una settimanae una variabile aleatoria con valore atteso 50.(a) Cosa si puo dire sulla probabilita che la produzione superi i 75 pezzi?(b) Se si suppone nota anche la varianza, pari a 25, cosa si puo dire sullaprobabilita che la produzione sia compresa tra i 40 e i 60 pezzi?

(a) Sia X la variabile aleatoria pari al numero di prodotti fabbricati settima-nalmente.Poiche X e una variabile aleatoria non negativa possiamo applicare la disu-guaglianza di Markov:

P (X ≥ 75) ≤ E(X)

75=

50

75=

2

3.

(b) Applicando la disuguaglianza di Chebyshev

P (40 < X < 60) = P (40− 50 < X − 50 < 60− 50)

= P (−10 < X − 50 < 10) = P (|X − 50| < 10)

≥ 1− V (X)

102= 1− 25

100=

3

4.

Page 85: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 85

3.9 Esercizi di riepilogo

Esercizio 3.9.1 Si consideri l’esperimento consistente nel lancio di due dadinon truccati. Definita la seguente variabile aleatoria

X = Massimo risultato di uno dei due dadi .

Determinare lo spazio campione, la densita di probabilita ed il relativo valoreatteso.

Esercizio 3.9.2 Una variabile aleatoria bidimensionale (X, Y ) discreta eequidistribuita in

Ω = (1, 1), (−1,−1), (1,−1).Individuare le densita marginali di X e Y , insieme ai valori attesi e allevarianze di X e Y.

Esercizio 3.9.3 Una variabile aleatoria discreta X ha densita f(x) = c/x,x = 1, 2, 3. Calcolare c, il valore atteso µ e la deviazione standard σ. Calco-lare P (µ− σ < X < µ+ σ).

Esercizio 3.9.4 Una variabile aleatoria bidimensionale di tipo discreto hadensita

f(x, y) =2

5(x+ y), (x, y) = (1, 1), (1, 0), (0, 1).

a) Provare che la densita e definita correttamente.b) Calcolare i valori attesi E(X), E(Y ), E(XY ).c) Calcolare P (X ≤ Y |X + Y = 1).

Esercizio 3.9.5 Sia

f(x) =

0 x 6∈ [0, 1]

6(x− x2) x ∈ [0, 1].

a) Provare che questa funzione e una densita di probabilita.b) Se X e una variabile aleatoria con questa densita mostrare che la suamedia e µ = 1/2 e la sua varianza e σ2 = 1/20.

Page 86: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 86

Esercizio 3.9.6 Una variabile aleatoria bidimensionale di tipo discreto (X, Y )assume valori con probabilita positiva solo nelle sei coppie (i, j), i = −1, 0, 1,e j = −1, 1. Precisamente P (X = 0, Y = −1) = 1/12 e P (X = −1, Y =1) = 3/4, mentre la probabilita e uguale nelle restanti quattro coppie.a) Calcolare le densita di X e Y con i rispettivi valori attesi.b) Calcolare E(XY ).c) Calcolare P (X ≥ Y |X + Y > 0).

Esercizio 3.9.7 Sia X una variabile aleatoria di tipo continuo con densita

f(x) =

0 x 6∈ [−1, 1]

|x| x ∈ [−1, 1].

a) Provare che questa funzione e effettivamente una densita di probabilita.b) Provare, utilizzando proprieta di simmetria, che E(X) = 0.c) Provare che la deviazione standard e σ =

√2/2.

d) Calcolare P (|X| < σ).

Esercizio 3.9.8

Una variabile aleatoria X di tipo continuo ha densita di probabilita

f(x) =

1− |x| |x| < 1

0 altrove.

a) Mostrare che f(x) e definita correttamente.b) Provare che la media E(X) e nulla e calcolare la deviazione standard.c) Calcolare P (|X| < 1/2).

Esercizio 3.9.9 Si consideri la funzione

f(x) =

3

4(1− x2) |x| ≤ 1

0 altrove.

a) Mostrare che f e una densita di probabilita per una variabile aleatoriacontinua.b) Se X e una variabile aleatoria con questa densita, calcolare E(X) e V (X).c) Calcolare P (−2 < X < 0).

Page 87: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 3. VARIABILI ALEATORIE 87

Esercizio 3.9.10 Una variabile aleatoria bidimensionale di tipo discreto hadistribuzione

f(x, y) =6

7(x+ y + 4), (x, y) = (1, 1), (1,−1), (−1, 1), (−1,−1).

a) Mostrare che f(x, y) e definita correttamente.b) Calcolare E(XY ).

Esercizio 3.9.11 Una variabile aleatoria bidimensionale (X, Y ) di tipo di-screto e equidistribuita nelle tre coppie (1, 0), (0, 1), (1, 1).a) Trovare la densita di Z = X2Y .b) Calcolare E(Z).

Esercizio 3.9.12 Una variabile aleatoria X di tipo continuo ha densita

f(x) =

|2x| −√3/2 ≤ x ≤ 1/2

0 altrove.

a) Calcolare E(X) e V (X).b) Calcolare P (−1/3 < X < 1/3|X > 0).

Esercizio 3.9.13 Una variabile aleatoria X di tipo continuo ha densita

f(x) =

C(1 + x) −1 ≤ x ≤ 1

0 altrove.

a) Determinare C in modo che f sia definita correttamente.b) Calcolare E(X) e V (X).c) Calcolare P (X ≥ 0|X ≤ 3/4).

Page 88: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

Capitolo 4

Modelli di Variabili Aleatorie

4.1 Variabili aleatorie di Bernoulli e binomia-

le

Supponiamo che venga realizzato un esperimento il cui esito puo essere unsuccesso oppure un fallimento. Se definiamo la variabile aleatoria X in modotale che X = 1 nel primo caso e X = 0 nel secondo, la sua densita diprobabilita e

P (X = 1) = pP (X = 0) = 1− p

(4.1)

dove p indica la probabilita che l’esperimento registri un successo.

Definizione 4.1.1 Una variabile aleatoria X si dice di Bernoulli se la suadensita di probabilita e uguale alla (4.1).

Calcolando il valore atteso di X risulta

E(X) = p,

mentreE(X2) = p,

pertanto la sua varianza e

V (X) = E(X2)− (E(X))2 = p− p2 = p(1− p).

Supponiamo ora di ripetere l’esperimento n volte in modo tale che il risultatodi ognuna sia indipendente dal risultato delle altre e che esso si concludasempre con un successo oppure con un fallimento.

88

Page 89: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 89

Definizione 4.1.2 Nella situazione appena descritta la variabile aleatoria Xche denota il numero totale di successi in n prove si dice variabile aleatoriabinomiale di parametri (n, p).

Le prove dell’esperimento prendono il nome di prove di Bernoulli. La densitadi probabilita per una variabile aleatoria binomiale di parametri (n, p) e laseguente

P (X = k) =

(n

k

)

pk(1− p)n−k (4.2)

dove (n

k

)

=n!

(n− k)!k!

e il gia noto coefficiente binomiale. La correttezza dell’espressione (4.2) perla densita di probabilita puo essere spiegata nel modo seguente: fissata unasequenza di esiti con k successi ed n − k fallimenti la probabilita che siverifichi esattamente e pk(1−p)k, in virtu dell’indipendenza delle ripetizioni.Le diverse sequenze si possono verificare in

(nk

)modi poiche corrispondono

a tutti i modi in cui si possono scegliere gli esiti dell’esperimento nelle nripetizioni effettuate.Per esempio se n = 5 e k = 2 ci sono

(52

)= 10 possibili scelte degli esiti:

(s, s, f, f, f) (s, f, s, f, f) (s, f, f, s, f) (s, f, f, f, s) (f, s, s, f, f)(f, s, f, s, f) (f, s, f, f, s) (f, f, s, s, f) (f, f, s, f, s) (f, f, f, s, s)

dove, per esempio, l’esito (f, s, f, s, f) e quello in cui i successi si sono veri-ficati alla seconda e alla quarta ripetizione. La relazione (4.2) rappresentauna densita di probabilita in quanto

n∑

k=0

P (X = k) =n∑

k=0

(n

k

)

pk(1− p)n−k = [p+ 1− p]n = 1.

La penultima uguaglianza deriva dalla formula dello sviluppo di (a+ b)n:

(a+ b)n =n∑

k=0

(n

k

)

akbn−k.

Teorema 4.1.1 Se X e una variabile aleatoria binomiale a parametri n e pallora

E(X) = np, V (X) = np(1− p).

Page 90: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 90

Dimostrazione. Scriviamo X come somma di n variabili aleatorie indipen-denti Xi con disttribuzione di Bernoulli

X = X1 +X2 + · · ·+Xn,

poicheE(Xi) = p, V (Xi) = p(1− p), i = 1, 2, . . . , n

e applicando le proprieta di valore atteso e varianza segue banalmente la tesi.

Esempio 4.1.1 Determinare la probabilita che su 12 lanci di una monetanon truccata si ottengano esattamente 8 teste.

Si tratta di un esperimento di Bernoulli in cui il successo coincide con esce

una testa, quindi il numero di teste uscite in 8 lanci e una variabile binomialea parametri (1/2, 12), quindi

P (X = 8) =

(12

8

)(1

2

)8(1

2

)4

=12 · 11 · 10 · 9

4 · 3 · 21

212≃ 0.1208.

Esempio 4.1.2 Determinare la probabilita che estraendo per 5 volte unacarta da un mazzo da 40 (inserendo ogni volta la carta estratta e rimescolandobene il mazzo) si ottengano:a) esattamente 3 figure;b) almeno 3 figure;c) almeno una figura.

Poiche le carte sono reintrodotte nel mazzo l’esperimento rientra negli espe-rimenti di tipo Bernoulli, in quanto la probabilita di estrarre una figuracambierebbe ad ogni successiva estrazione. In questo caso, invece, si trattadi un esperimento di Bernoulli in cui il successo e l’estrazione di una figura,pertanto n = 5 e

p =12

40= 0.3.

a) La probabilita di ottenere esattamente 3 figure e:

P (X = 3) =

(5

3

)

0.33 · 0.72 ≃ 0.1323.

Page 91: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 91

b) La probabilita di ottenere almeno 3 figure e:

P (X ≥ 3) =

(5

3

)

0.33 · 0.72 +(5

4

)

0.34 · 0.7 +(5

5

)

0.35 ≃ 0.1631.

b) La probabilita di ottenere almeno una figura e:

P (X ≥ 1) = 1− P (X = 0) = 1−(5

0

)

0.75 ≃ 1− 0.16807 = 0.83193.

Esempio 4.1.3 Un tiratore colpisce un bersaglio con probabilita 0.2. Quale la probabilita che su 8 tiri colpisca 2 volte il bersaglio? E che lo colpiscaalmeno due volte?

Anche in questo caso il numero di volte che viene colpito il bersaglio e unavariabile aleatoria di tipo binomiale a parametri (8, 0.2).

P (X = 2) =

(8

2

)

0.22 · 0.86 ≃ 0.2936.

Invece

P (X ≥ 2) = 1− P (X = 0)− P (X = 1) = 1−(80

)0.88 −

(81

)0.2 · 0.87

≃ 1− 0.1678− 0.3355 = 0.4967.

4.2 Variabile aleatoria geometrica

Supponiamo di avere un processo di Bernoulli legato ad un evento A che puoaccadere con probabilita p. Definiamo la seguente variabile aleatoria:X = numero di volte che si deve ripetere l’esperimento finche non si verifical’evento A.La probabilita cheX sia uguale ad un valore intero k ≥ 1 e legata al verificarsik−1 volte dell’evento A e una volta dell’evento A e, poiche le ripetizioni del-l’esperimento sono indipendenti la probabilita e il prodotto delle probabilitadei singoli eventi:

P (X = k) = (1− p)k−1p = qk−1p, k = 1, 2, 3, . . . (4.3)

avendo posto q = 1 − p. La (4.3) risulta essere una densitdi probabilita,infatti

∞∑

k=1

P (X = k) =∞∑

k=1

qk−1p = p∞∑

k=0

qk =p

1− q= 1.

Page 92: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 92

Teorema 4.2.1 Se X e una variabile aleatoria geometrica allora

E(X) =1

p, V (X) =

q

p2.

Dimostrazione.

E(X) =∞∑

k=1

kpqk−1 = p∞∑

k=1

d

dqqk = p

d

dq

∞∑

k=1

qk = pd

dq

[q

1− q

]

=1

p.

La seconda dimostrazione e omessa.

4.3 Variabile aleatoria di Poisson

Sia X una variabile casuale che rappresenta il numero di eventi che si veri-ficano in modo casuale, seppur con frequenza media costante in un definitointervallo di tempo. Supponiamo gli eventi accadano in modo indipendente.La variabile aleatoria X si dice variabile di Poisson con parametro λ se lasua densita di probabilita e

P (X = k) =e−λλk

k!, k = 0, 1, 2, . . .

Si puo facilmente verificare che

+∞∑

k=0

P (X = k) = 1.

Teorema 4.3.1E(X) = λ, V (X) = λ.

Dimostrazione.

E(X) =+∞∑

k=0

ke−λλk

k!=

+∞∑

k=1

e−λλk

(k − 1)!= e−λ

+∞∑

s=0

λs+1

s!= λ.

Page 93: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 93

Per calcolare la varianza e necessario conoscere E(X2).

E(X2) =+∞∑

k=0

k2 e−λλk

k!=

+∞∑

k=1

ke−λλk

(k − 1)!=

+∞∑

s=0

(s+ 1)e−λλs+1

s!

=+∞∑

s=0

se−λλs+1

s!+

+∞∑

s=0

e−λλs+1

s!

= λ+∞∑

s=0

se−λλs

s!+ λ

+∞∑

s=0

e−λλs

s!= λ2 + λ.

QuindiV (X) = E(X2)− [E(X)]2 = λ2 + λ− λ2 = λ.

Il parametro λ rappresenta la frequenza media con cui si verifica il fenomenoin osservazione. Esempi di variabili di Poisson sono il numero di automobiliche transitano su una strada poco frequentata in un intervallo di tempo di 5minuti, scelto a caso, oppure il numero di infortuni sul lavoro che accadono inun’azienda in una settimana o, ancora, il numero di errori di stampa presentinella pagina in un libro. Tutti questi esempi sono caratterizzati dal fattoche le variabili potrebbero in realta essere considerate tutte come variabili ditipo binomiale ma con un valore n molto grande ed una probabilita p moltopiccola. Il seguente risultato avvalora la relazione tra le variabili aleatoriebinomiali e di Poisson.

Teorema 4.3.2 Sia X una variabile aleatoria binomiale a parametri n, p,se n → ∞ e p → 0, in modo tale che np = λ, allora

P (X = k) =e−λλk

k!.

Dimostrazione. Sappiamo che:

P (X = k) =

(n

k

)

pk(1− p)n−k =n(n− 1) . . . (n− k + 1)

k!pk(1− p)n−k.

Page 94: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 94

Ponendo p = λ/n risulta 1− p = 1− λ/n.

P (X = k) =n(n− 1) . . . (n− k + 1)

k!

n

)k (

1− λ

n

)n−k

=λk

k!

[

1

(

1− 1

n

)

. . .

(

1− k − 1

n

)](

1− λ

n

)n−k

−→ λke−λ

k!.

Esempio 4.3.1 Supponendo che il numero medio di incidenti settimanali inun tratto autostradale sia pari a 3, si calcoli la probabilita che nella prossimasettimana ci sia almeno un incidente.

Sia X il numero di incidenti nel tratto autostradale nella settimana in esame.Si puo ragionevolmente supporre che, a causa dell’alto numero di automobiliche percorrono il tratto di strada, la probabilita che un’auto sia coinvoltain un incidente sia piccola e quindi che X sia una variabile di Poisson conλ = 3. Quindi

P (X ≥ 1) = 1− P (X < 1) = 1− P (X = 0)

= 1− 30

0!e−3 = 1− e−3 ≃ 0.9502.

Esempio 4.3.2 Un macchinario produci oggetti difettosi con probabilita 0.1Supponendo l’indipendenza nella qualita dei pezzi successivi, con che proba-bilita un campione di 10 oggetti ne conterra al piu uno difettoso?

Il numero di oggetti difettosi e una variabile binomiale con parametri (10, 0.1),tuttavia usando l’approssimazione con la variabile di Poisson con parametroλ = np = 1 risulta

P (X ≤ 1) = P (X = 0) + P (X = 1) =10

0!e−1 +

11

1!e−1 ≃ 0.7358.

4.4 La legge dei grandi numeri

Sia E un esperimento ed A un evento associato ad esso. Consideriamo nripetizioni indipendenti di tale esperimento e sia nA il numero di volte che

Page 95: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 95

l’evento A si e verificato. Indichiamo con fA la frequenza relativa di A e conp la sua probabilita. Allora per ogni ε abbiamo:

P (|fA − p| ≥ ε) ≤ p(1− p)

nε2(4.4)

oppure

P (|fA − p| ≤ ε) ≥ 1− p(1− p)

nε2.

Dimostrazione. La frequenza assoluta nA e una variabile aleatoria binomiale,quindi

E(nA) = np, V (nA) = np(1− p).

Poiche fA = nA/n allora

E(fA) = p, V (fA) =V (nA)

n2=

p(1− p)

n.

Applicando la disuguaglianza di Chebyshev alla variabile aleatoria fA segue

P (|fA − p| ≥ ε) ≤ V (fA)

ε2=

p(1− p)

nε2.

La legge dei grandi numeri stabilisce che la frequenza relativa di un eventoconverge alla sua probabilita, dove il concetto di convergenza va inteso semprein senso probabilistico, nel senso che per ogni ε > 0 la probabilita dell’evento

|nA/n− P (A)| ≤ ε

puo essere resa arbitrariamente vicina a 1 prendendo un valore di n sufficien-temente grande.

4.5 Variabile aleatoria uniforme

Definizione 4.5.1 Una variabile aleatoria continua X si dice uniforme sul-l’intervallo [a, b] se la sua densita di probabilita e

f(x) =

1

b− aa ≤ x ≤ b

0 x < a, x > b.

Page 96: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 96

Dalla definizione di f(x) segue che

P (c ≤ X ≤ d) =

∫ d

c

f(t)dt =d− c

b− a,

mentre la funzione cumulativa e

F (x) =

∫ x

a

f(t)dt =x− a

b− a.

a b

1

b− a

f(x)

a b

1F (x)

Si puo facilmente dimostrare che per una variabile aleatoria con densitauniforme si ha

E(X) =

∫ b

a

x

b− adx =

b2 − a2

2(b− a)=

a+ b

2

e inoltre

E(X2) =

∫ b

a

x2

b− adx =

b3 − a3

3(b− a)=

a2 + ab+ b2

3.

Pertanto la varianza risulta:

V (X) = E(X2)− [E(X)]2 =(b− a)2

12.

Page 97: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 97

4.6 Variabile aleatoria normale

Una variabile aleatoria continua X si dice Normale (o Gaussiana) se la suadensita di probabilita e della forma:

f(x) =1√2πσ

exp

(

−1

2

[x− µ

σ

]2)

x ∈ R

con µ ∈ R e σ > 0. Se X e una variabile aleatoria normale a parametri µe σ si scrive con N(µ, σ2). Verifichiamo innanzitutto che la funzione f(x) euna densita di probabilita.

I =

∫ +∞

−∞f(x)dx =

1√2πσ

∫ +∞

−∞e−

12(

x−µ

σ )2

dx =1√2π

∫ +∞

−∞e−t2/2dt,

avendo posto t = (x − µ)/σ. Per dimostrare che I = 1, ricorriamo ad unespediente, calcolando I2 :

I2 =1

∫ +∞

−∞e−t2/2dt

∫ +∞

−∞e−s2/2ds =

1

∫ +∞

−∞

∫ +∞

−∞e−(s2+t2)/2dt ds.

Passando alle coordinate polari si pone

s = ρ cos θ, t = ρ sin θ

e si calcola il determinante della matrice Jacobiana della trasformazione:

|J(ρ, θ)| =

∣∣∣∣∣∣∣∣∣

ds

ds

dt

dt

∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣

cos θ −ρ sin θ

sin θ ρ cos θ

∣∣∣∣∣∣

= ρ.

I2 =1

∫ 2π

0

∫ +∞

0

ρe−ρ2/2dρ =1

∫ 2π

0

dθ[

−e−ρ2]+∞

0= 1.

Calcoliamo ora il valore atteso di X :

E(X) =1√2πσ

∫ +∞

−∞xe−

12(

x−µ

σ )2

dx.

Page 98: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 98

Effettuiamo il seguente cambio di variabile

z =x− µ

σ, dz =

dx

σ, x = σz + µ,

cosicche

E(X) =1√2π

∫ +∞

−∞(σz + µ)e−z2/2dz

=σ√2π

∫ +∞

−∞ze−z2/2dz

︸ ︷︷ ︸

=0

+µ1√2π

∫ +∞

−∞e−z2/2dz

︸ ︷︷ ︸

=1

= µ

E(X2) =1√2πσ

∫ +∞

−∞x2e−

12(

x−µ

σ )2

dx

=1√2π

∫ +∞

−∞(σz + µ)2e−z2/2dz

=σ2

√2π

∫ +∞

−∞z2e−z2/2dz +

2µσ√2π

∫ +∞

−∞ze−z2/2dz

︸ ︷︷ ︸

=0

+µ2

√2π

∫ +∞

−∞e−z2/2dz

︸ ︷︷ ︸

=µ2

=σ2

√2π

[

−ze−z2/2]+∞

−∞+

σ2

√2π

∫ +∞

−∞e−z2/2dz

︸ ︷︷ ︸

=σ2

+µ2 = σ2 + µ2.

La varianza di X vale

V (X) = E(X2)− [E(X)]2 = σ2.

E possibile dare un’interpretazione geometrica dei parametri di X, infatti inx = µ e punto di massimo di f(x) mentre i punti µ±σ sono i punti di flesso,come evidenzia il seguente grafico.

Page 99: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 99

x = µ

x = µ+ σx = µ− σ

Se X e una variabile normale N(0, 1) allora si dice Normale Standard, inquesto caso la densita di probabilita e

f(x) =1√2π

e−x2/2

mentre la funzione cumulativa vale

Φ(x) =1√2π

∫ x

−∞e−t2/2dt = P (X ≤ x).

SeX e una variabile normaleN(µ, σ2) e se Y = aX+b allora Y e una variabilenormale N(aµ+b, a2σ2), e se Y = (X−µ)/σ allora Y e una variabile normaleN(0, 1).

4.6.1 Variabile aleatoria normale standard

Se X e una variabile normale standard N(0, 1) allora

P (a ≤ X ≤ b) =1√2π

∫ b

a

e−x2/2dx;

poiche tale integrale non puo essere calcolato in modo elementare allora ivalori della funzione cumulativa Φ(s) definita da

Φ(x) =1√2π

∫ x

−∞e−t2/2dt

Page 100: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 100

sono stati tabulati. Quindi

P (a ≤ X ≤ b) = Φ(b)− Φ(a).

P (a ≤ X ≤ b)

a b

Se X e una variabile normale N(µ, σ2) allora si puo utilizzare la tabulazio-ne della funzione cumulativa per calcolare la probabilita P (a ≤ X ≤ b),sfruttando la proprieta che la variabile aleatoria (X − µ)/σ e una variabilenormale standard:

P (a ≤ X ≤ b) = P

(a− µ

σ≤ X − µ

σ≤ b− µ

σ

)

= Φ

(b− µ

σ

)

− Φ

(a− µ

σ

)

.

La seguente figura evidenzia che, a causa della simmetria della funzione f(x),risulta

Φ(−k) = P (X ≤ −k) = P (X ≥ k) = 1− Φ(k)

quindiP (−k ≤ X ≤ k) = Φ(k)− Φ(−k) = 2Φ(k)− 1.

Page 101: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 101

P (X ≥ k)P (X ≤ −k)

k−k

Nelle applicazioni (in particolare nell’ambito della Statistica) della variabilenormale standard assumono una particolare importanza i cosiddetti quantiligaussiani, definiti nel seguente modo. Se α e un numero reale compreso tra0 e 1 allora il quantile zα e il valore tale che

P (X ≥ zα) = α.

In base alle proprieta della funzione Φ(x) risulta

P (X ≥ zα) = 1− Φ(zα) = α.

e quindi Φ(zα) = 1− α.Volendo determinare il quantile gaussiano z tale che

P (−z ≤ X ≤ z) = 1− α

alloraP (−z ≤ X ≤ z) = 2Φ(z)− 1 = 1− α

da cui segue che

Φ(z) = 1− α/2 ⇒ z = zα/2.

Esempio 4.6.1 Calcolare le seguenti probabilita relative ad una variabilealeatoria di tipo normale standard utilizzando la relativa tabulazione:

1. P (0.87 ≤ X ≤ 1.28)

Page 102: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 102

2. P (−0.34 ≤ X ≤ 0.62)

3. P (X ≥ 0.85)

4. P (X ≥ −0.65)

5. P (1 ≤ X ≤ 2)

6. P (−1 ≤ X ≤ 2)

7. P (|X| ≥ 1.2).

1. P (0.87 ≤ X ≤ 1.28) = Φ(1.28)− Φ(0.87)= 0.8997− 0.8078 = 0.0919

2. P (−0.34 ≤ X ≤ 0.62) = Φ(0.62)− Φ(−0.34)= Φ(0.62)− 1 + Φ(0.34)= 0.7324− 1 + 0.6331 = 0.3655

3. P (X ≥ 0.85) = 1− P (X ≤ 0.85) = 1− Φ(0.85)= 1− 0.8023 = 0.1977

4. P (X ≥ −0.65) = (X ≤ 0.65) = Φ(0.65) = 0.7422

5. P (1 ≤ X ≤ 2) = Φ(2)− Φ(1)= 0.9772− 0.8413 = 0.1359

6. P (−1 ≤ X ≤ 2) = Φ(2)− Φ(−1) = Φ(2)− 1 + Φ(1)= 0.9772− 1 + 0.8413 = 0.8185

7. P (|X| ≥ 1.2) = P (X ≥ 1.2) + P (X ≤ −1.2)= 1− Φ(1.2) + 1− Φ(1.2)= 2− 2Φ(1.2) = 2− 2 0.8849 = 0.2302.

Esempio 4.6.2 Sia X una variabile aleatoria di tipo normale con µ = 4.35e σ = 0.59, trovare la probabilita P (4 ≤ X ≤ 5).

Page 103: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 103

P (4 ≤ X ≤ 5) = P

(4− 4.35

0.59≤ X − 4.35

0.59≤ 5− 4.35

0.59

)

= P

(

−0.59 ≤ X − 4.35

0.59≤ 1.10

)

= Φ(1.1)− Φ(−0.59) = 0.8643− 1 + Φ(0.59) = 0.5867.

Esempio 4.6.3 Una variabile aleatoria di tipo normale ha parametri µ = 5.1e σ = 0.1.a) Calcolare P (5 ≤ X ≤ 5.2);b) Calcolare P (5 ≤ X ≤ 5.2) nell’ipotesi in cui X abbia lo stesso valoreatteso ma deviazione standard σ = 0.5.

a)

P (5 ≤ X ≤ 5.2) = P

(5− 5.1

0.1≤ X − 5.1

0.1≤ 5− 2− 5.1

0.1

)

= P

(

−1 ≤ X − 5.1

0.1≤ 1

)

= 2Φ(1)− 1 = 0.6826.

b)

P (5 ≤ X ≤ 5.2) = P

(5− 5.1

0.5≤ X − 5.1

0.5≤ 5− 2− 5.5

0.1

)

= P

(

−0.2 ≤ X − 5.1

0.1≤ 0.2

)

= 2Φ(0.2)− 1 = 2 0.5793− 1 = 0.1586.

Osserviamo che aumentando la varianza diminuisce la probabilita che i valoriappartengano all’intervallo (5, 5.2).

Esempio 4.6.4 La variabile aleatoria X ha distribuzione normale con valoreatteso µ e varianza σ2. E noto che il 10% dei valori di S e maggiore di 17.24 eche il 25% dei valori e minore di 14, 37. Trovare il valore atteso e la varianza.

Sono note le probabilita

P (X ≥ 17.24) = 0.1, P (X ≤ 14.37) = 0.25.

Page 104: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 104

Standardizzando la variabile ed utilizzando la tabulazione della funzione Φ(x)si trova

P (X ≥ 17.24) = P

(X − µ

σ≥ 17.24− µ

σ

)

= 0.1,

P

(X − µ

σ≤ 17.24− µ

σ

)

= 0.9,

da cui segue17.24− µ

σ= 1.285,

mentre

P (X ≤ 14.37) = P

(X − µ

σ≤ 14.37− µ

σ

)

= 0.25,

da cui segue17.24− µ

σ= −0.675.

Risolvendo il sistema lineare

17.24− µ = 1.285σ14.37− µ = −0.675σ

si trova µ = 15.36 e σ = 1.46.

4.7 Variabili aleatorie di tipo gamma

Una variabile aleatoria continua X si dice di tipo gamma con parametri α edr, entrambi strettamente positivi, se la sua funzione densita di probabilita:

f(x) =

α

Γ(r)(αx)r−1e−αx, x > 0

0 x ≤ 0.

dove Γ(·) denota la funzione gamma di Eulero:

Γ(r) =

∫ +∞

0

xr−1e−xdx, r > 0.

Integrando per parti

Γ(r) =[−xr−1e−x

]+∞0

+

∫ +∞

0

(r − 1)xr−2e−xdx = (r − 1)Γ(r − 1).

Page 105: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 105

Se calcoliamo la funzione in un valore r = n ∈ N allora risulta:

Γ(n) = (n− 1)Γ(n− 1) = (n− 1)(n− 2)Γ(n− 2) = · · · = (n− 1)!

sfruttando la proprieta che

Γ(1) =

∫ +∞

0

e−xdx = 1.

Verifichiamo che la funzione f(x) definisce una densita di probabilita:∫ +∞

0

f(x)dx =α

Γ(r)

∫ +∞

0

(αx)r−1e−αxdx

=1

Γ(r)

∫ +∞

0

tr−1e−tdt = 1.

Il valore atteso e la varianza assumono valore:

E(X) =r

α, E(X2) =

r(r + 1)

α2.

e

V (X) =r(r + 1)

α2− r2

α2=

r

α2.

Considereremo, nei paragrafi seguenti, alcune particolari variabili aleatoriedi tipo gamma.

4.7.1 Variabile aleatoria esponenziale

Quando r = 1 la variabile aleatoria X si dice esponenziale. La sua densitadi probabilita e

f(x) =

αe−αx x ≥ 0

0 x < 0.

La funzione cumulativa di X vale:

F (x) = P (X ≤ x) =

∫ x

0

αe−αtdt = 1− e−αx.

Ponendo r = 1 nell’espressione di valore atteso e varianza della variabilegamma si ottengono i seguenti valori:

E(X) =1

α, V (X) =

1

α2.

Page 106: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 106

4.7.2 Variabile aleatoria chi-quadro χ2n

Un altro caso particolare di variabile di tipo gamma e quello in cui i parametrisono α = 1/2 e r = n/2, con n ∈ N, ovvero

f(x) =

1

2n/2Γ(n/2)xn/2−1e−x/2 x ≥ 0

0 x < 0.

In questo caso si dice che la variabile aleatoria X e di tipo χ2n (chi-quadro)

con n gradi di liberta. Sfruttando i risultati visti per la variabile gammarisulta:

E(X) = n, V (X) = 2n.

Nella seguente figura sono riportati i grafici della funzione densita di proba-bilita di una variabile aleatoria χ2

n per diversi valori di n.

x

y n = 2n = 3n = 4n = 5n = 6n = 7

Due proprieta di questo tipo di variabile sono particolarmente importanti:

1. Se X1, X2, . . . , Xn sono n variabili aleatorie indipendenti di tipo nor-male standard, allora la somma dei loro quadrati

Z = X21 +X2

2 + · · ·+X2n

e una variabile χ2n con n gradi di liberta;

Page 107: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 107

2. La variabile chi-quadro e riproducibile, cioe se X1 e X2 sono variabilialeatorie indipendenti di tipo chi-quadro, rispettivamente con n1 ed n2

gradi di liberta, allora la variabile aleatoria

X = X1 +X2

e una variabile chi-quadro con n1 + n2 gradi di liberta.

Analogamente alla densita normale standard, se X e una variabile aleatoriadi tipo chi-quadro con n gradi di liberta ed α e un numero reale compresotra 0 e 1, allora si definisce il numero χ2

α,n tale che

P (X ≥ χ2α,n) = α,

e anche tali valori sono tabulati. La situazione e visualizzata nel seguentegrafico.

x

y

χ2α,n

Area=α

4.8 Approssimazione di De Moivre-Laplace

La legge dei grandi numeri, che abbiamo visto nel capitolo precedente, siapplica essenzialmente quando X e una variabile aleatoria di tipo binomiale.Se X indica il numero di successi in n ripetizioni indipendenti di un esperi-mento allora si puo affermare in modo piuttosto informale che la frequenzaX/n converge alla probabilita di successo p. La legge dei grandi numeri none di grande aiuto pero quando si vuole calcolare la probabilita P (X = k).Supponiamo per esempio che una fabbrica produca macchinari dei quali il

Page 108: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 108

5% risulta difettoso. Ispezionando 100 macchinari si vuol sapere qual e laprobabilita che meno di 4 macchinari siano difettosi.Se X e il numero di macchinari difettosi allora la legge dei grandi numeristabilisce che X/100 dovrebbe essere vicino a 0.05. Il valore esatto dellaprobabilita e invece:

P (X < 4) =3∑

k=0

(100

k

)

(0.05)k(0.95)100−k.

Poiche calcolare tale valore e piuttosto complicato allora cerchiamo un modoalternativo per determinarlo. Approssimando n! con la Formula di Stirling:

n! ≃√2πe−nnn+1/2

e manipolando opportunamente l’espressione della densita di tipo binomialesi ottiene

P (X = k) =

(n

k

)

pk(1− p)n−k ≃ 1√

2πnp(1− p)exp

(

−1

2

[

k − np√

np(1− p)

])

.

Quindi per n sufficientemente grande

P (X ≤ k) = P

[

X − np√

np(1− p)≤ k − np√

np(1− p)

]

≃ 1√2π

∫ k−np√np(1−p)

−∞e−t2/2dt.

Se X e una variabile aleatoria binomiale a parametri n e p, allora la variabilealeatoria

Y =X − np

[np(1− p)]1/2

ha, per n sufficientemente grande, densita di probabilita normale standard,cioe

limn→∞

P (Y ≤ y) = Φ(y).

Tale approssimazione, detta appunto di De Moivre-Laplace, e molto buonagia per n > 10 purche p sia prossimo a 1/2. Se invece p e vicino a 0 o a 1allora il valore di n deve essere piuttosto grande.

Page 109: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 109

4.9 Il teorema del limite centrale

L’approssimazione di De Moivre-Laplace rappresenta, in realta, il caso par-ticolare di un risultato generale. Infatti una variabile aleatoria X di tipobinomiale puo essere rappresentata come una somma di n variabili aleatorieindipendenti:

X = X1 +X2 + · · ·+Xn,

ognuna delle quali definita nel seguente modo:

Xi =

1 se l’evento A si verifica alla i−esimaripetizione dell’esperimento

0 in caso contrario.

Poiche X e una variabile aleatoria binomiale

E(X) = np, V (X) = np(1− p).

Se n e sufficientemente grande allora (X − np)/√

np(1− p) ha densita nor-male standard. Tale risultato viene generalizzato nel cosiddetto Teorema dellimite centrale.

Teorema 4.9.1 (del limite centrale) Sia X1, X2, . . . , Xn una successionedi variabili aleatorie indipendenti e tali che E(Xi) = µi e V (Xi) = σ2

i , peri = 1, 2, . . . , n. Se X = X1+X2+ · · ·+Xn, sotto opportune condizioni risultache la variabile aleatoria Zn cosı definita

Zn =X −∑n

i=1 µi√∑n

i=1 σ2i

ha densita normale standard, cioe indicata con Gn(z) la funzione cumulativadi Zn si ha

limn→∞

Gn(z) = Φ(z).

4.10 Variabile aleatoria t di Student

Introduciamo in questo paragrafo una variabile aleatoria continua che vieneutilizzata spesso nell’ambito dell’inferenza statistica. Se Z e Cn sono due

Page 110: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 110

variabili aleatorie indipendenti, la prima normale standard, la seconda ditipo chi-quadro con n grado di liberta, allora la variabile aleatoria

Tn =Z

Cn/n

si dice t-Student con n gradi di liberta. La funzione cumulativa di talevariabile aleatoria e

P (Tn ≤ t) =

∫ t

−∞

Γ[(r + 1)/2]√πrΓ(r/2)(1 + x2/r)(r+1)/2

dx

che e una funzione tabulata che gode delle stesse proprieta di simmetria delladensita di probabilita di una variabile aleatoria normale standard, come si os-serva dalla seguente figura in cui sono rappresentate le densita di probabilitadella variabile t per diversi valori di n confrontate con quella della variabiledi tipo normale standard.

x

y n = 1n = 2n = 3n = 4n = 5n = 6N(0, 1)

Nel grafico si osserva che, al crescere di n, la funzione densita di probabilitasi avvicina a quella della normale standard.

4.11 Esercizi di riepilogo

Esercizio 4.11.1 Se la probabilita che una persona sia allergica ad un datofarmaco e p = 0.001, determinare la probabilita che su 2000 persone:

Page 111: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 111

a) meno di 2 siano allergiche;b) esattamente 3 siano allergiche;c) piu di 2 siano allergiche,approssimando la densita delle variabile aleatoria binomiale con quella diPoisson.

Esercizio 4.11.2 Un allevatore di galline per la produzione di uova ha ac-quistato 900 pulcini. Il venditore dichiara che, essendo stati selezionati ac-curatamente, solo un pulcino su 150 potra risultare un maschio. Calcolarela probabilita che l’allevatore, quando i pulcini sarannoa adulti, si ritrovi:a) 7 galli e 893 galline;b) meno di 4 galli;c) piu di 4 galli;d) tutte galline.Si applichi l’approssimazione della la densita delle variabile aleatoria bino-miale con quella di Poisson.

Esercizio 4.11.3 Ad un servizio di guardia medica arrivano in media 2 ri-chieste ogni ora per interventi domiciliari.a) Calcolare la probabilita che in un’ora arrivino 3, 4 e 5 chiamate di emer-genza;b) Calcolare la probabilita che in un’ora arrivi un numero di chiamate com-preso tra 3 e 5;c) Calcolare la probabilita che in un’ora arrivino piu di 4 chiamate.

Esercizio 4.11.4 Un libro contiene 25 errori di battitura in 500 pagine.Calcolare la probabilita che, aperta una pagina a caso, ci siano 3 errori dibattituta.

Esercizio 4.11.5 Considerato lo stesso libro dell’esercizio precedente, calco-lare la probabilita che, nella pagina scelta a caso, ci siano piu di 3 errori dibattitura.

Esercizio 4.11.6 Il peso di certe confezioni alimentari prodotte in modo au-tomatico e una variabile aleatoria normale con parametri µ = 250 grammi edeviazione standard σ = 3 grammi. Calcolare la probabilita che una confe-zione:a) pesi meno di 245 grammi;b) pesi piu di 250 grammi;c) abbia un peso compreso tra 247 e 253 grammi.

Page 112: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 4. MODELLI DI VARIABILI ALEATORIE 112

Esercizio 4.11.7 La quantita di radiazioni cosmiche cui e esposta una per-sona che attraversa in aereo un determinato territorio e una variabile aleato-ria normale con parametri µ = 4.35 e deviazione standard σ = 0.59. Trovarela probabilita che la quantita di radiazioni cosmiche a cui la persona e sotto-posta sia:a) tra 4.00 e 5.0;b) piu di 5.5.

Esercizio 4.11.8 Il punteggio ottenuto in un test sul quoziente di intelli-genza e una variabile aleatoria normale con parametri µ = 1005 e deviazionestandard σ = 15. Trovare la probabilita che il punteggio ottenuto sia:a) minore di 118;b) maggiore di di 112;c) compreso tra 100 e 112.

Esercizio 4.11.9 La lunghezza di una sbarretta costruita da una macchinaautomatica e una variabile aleatoria normale con parametri µ = 10 e va-rianza σ2 = 0.005. Determinare la probabilita di scartare una sbarretta, se ledimensioni accettabili sono 10± 0.05 cm.

Esercizio 4.11.10 La variabile aleatoria Z ha distribuzione normale stan-dard. Determinare il valore zα per cui:a) P (Z ≤ zα) = 0.9953;b) P (Z ≥ zα) = 0.2743;c) P (0 ≤ Z ≤ zα) = 0.3770;d) P (|Z| ≤ zα) = 0.5762;e) P (zα ≤ Z ≤ 1.6) = 0.7865.

Esercizio 4.11.11 La variabile aleatoria Z ha distribuzione normale stan-dard. Determinare il valore zα per cui:a) P (Z ≥ zα) = 0.01;b) P (Z ≥ zα) = 0.05;c) P (−zα ≤ Z ≤ zα) = 0.6.

Esercizio 4.11.12 Sia X una variabile aleatoria di tipo normale con para-metri N(µ, 4). Calcolare il valore del valore atteso µ sapendo che

P (X ≥ 2) = 0.4.

Page 113: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

Capitolo 5

Elementi di Inferenza Statistica

5.1 Campioni casuali

Abbiamo visto in precedenza che un obiettivo della statistica e quello di ot-tenere informazioni sulle proprieta di una popolazione avendo a disposizioneun insieme discreto di dati di cardinalita solitamente molto inferiore rispettoalla numerosita della popolazione. Scopo dell’Inferenza Statistica e appuntoquello di trarre conclusioni sull’intera popolazione avendo a disposizione ilsolo campione di dati. I metodi della statistica inferenziale riguardano es-senzialmente due aree: la stima dei parametri e i test di ipotesi. La stimadei parametri di cui ci occuperemo in questo capitolo riguarda la media e lavarianza ma potrebbe essere esteso anche a covarianza, coefficiente di corre-lazione in base alla tipologia dei dati o al fenomeno in osservazione. Il valoredel parametro da stimare e incognito e possiamo solo chiederci se, in baseai dati estratti dal campione, la densita della statistica ha proprieta tali dagarantire che la stima sia vicina al valore incognito del parametro.

Definizione 5.1.1 Sia X una variabile aleatoria con una determinata den-sita di probabilita. Siano X1, . . . , Xn n variabili aleatorie con la stessa densitadi X. Allora (X1, . . . , Xn) si dice campione casuale della variabile aleatoriaX.

Definizione 5.1.2 Sia X1, . . . , Xn un campione casuale della variabile alea-toria X e siano x1, . . . , xn i valori assunti dal campione. Sia H una funzionedefinita per la n−upla (x1, . . . , xn). La variabile aleatoria Y = H(X1, . . . , Xn)

113

Page 114: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 114

si definisce Statistica mentre

y = H(x1, . . . , xn)

e il valore assunto dalla statistica.

Ricordiamo due statistiche importanti che abbiamo gia definito nel primocapitolo delle dispense.

X =1

n

n∑

i=1

Xi Media del campione

S2 =1

n− 1

n∑

i=1

(Xi −X)2 Varianza del campione.

La radice quadrata S =√S2 della varianza campionaria viene detta devia-

zione standard campionaria.

Teorema 5.1.1 Sia X una variabile aleatoria con valore atteso E(X) = µe varianza V (X) = σ2. Sia X la media di un campione di dimensione n.Allora

(a) E(X) = µ;

(b) V (X) =σ2

n;

(c) per n sufficientemente grandeX − µ

σ/√n

e approssimativamente una va-

riabile aleatoria normale standard N(0, 1).

Dimostrazione.

(a)

E(X) = E

(

1

n

n∑

i=1

Xi

)

=1

n

n∑

i=1

E(Xi) = µ.

(b)

V (X) = V

(

1

n

n∑

i=1

Xi

)

=1

n2

n∑

i=1

V (Xi) =σ2

n.

Page 115: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 115

(c) Segue direttamente dall’applicazione del Teorema del Limite Centralescrivendo la media come:

X =1

nX1 +

1

nX2 + · · ·+ 1

nXn.

Riportiamo di seguito un risultato gia dimostrato nel primo capitolo.

Lemma 5.1.1 Se X1, . . . , Xn e un campione casuale con media X, allora

n∑

i=1

(Xi −X)2 =n∑

i=1

X2i − nX

2. (5.1)

Teorema 5.1.2 Sia X1, . . . , Xn un campione casuale della variabile aleato-ria X avente valore atteso µ e varianza σ2. Sia

S2 =1

n− 1

n∑

i=1

(Xi −X)2

essendo X la media del campione. Allora

(a) E(S2) = σ2;

(b) Se X e una variabile aleatoria normale alloran− 1

σ2S2 e una variabile

aleatoria di tipo χ2n−1.

Dimostrazione. (a) Applicando il Lemma 5.1.1 e tenendo presente che

n∑

i=1

(Xi −X)2 =n∑

i=1

(Xi − µ+ µ−X)2

e che X − µ e la media del campione X1 − µ,X2 − µ, . . . , Xn − µ risulta

n∑

i=1

(Xi −X)2 =n∑

i=1

(Xi − µ)2 − n(X − µ)2. (5.2)

Page 116: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 116

Quindi

E

[

1

n− 1

n∑

i=1

(Xi −X)2

]

=1

n− 1

n∑

i=1

E[(Xi − µ)2

]− nE

[(X − µ)2

]

=1

n− 1

[

nσ2 − nσ2

n

]

= σ2.

(b) Se il campione ha una densita di probabilita normale a parametri (µ, σ2),allora dall’uguaglianza (5.2) segue che

n∑

i=1

(Xi −X)2

σ2=

n∑

i=1

(Xi − µ)2

σ2− n(X − µ)2

σ2.

ovveron∑

i=1

(Xi − µ

σ

)2

=n∑

i=1

(Xi −X)2

σ2+

n(X − µ)2

σ2,

o, equivalentemente

n∑

i=1

(Xi − µ

σ

)2

=n∑

i=1

(Xi −X)2

σ2+

[X − µ

σ/√n

]2

, (5.3)

e, sostituendo la varianza campionaria

n∑

i=1

(Xi − µ

σ

)2

=(n− 1)

σ2S2 +

[X − µ

σ/√n

]2

.

Poiche le variabili aleatorie (Xi − µ)/σ, i = 1, . . . , n, sono indipendenti ehanno densita normale standard allora il primo membro e una densita chi-quadro con n gradi di liberta, e poiche il secondo addendo al secondo membroha densita chi-quadro con un grado di liberta, segue che il primo addendodeve necessariamente essere una densita chi-quadro con n−1 gradi di liberta.

Definizione 5.1.3 Uno stimatore θ = g(X1, . . . , Xn) del parametro θ si dicecorretto se

E(θ) = θ.

Osserviamo che sia X che S2 sono stimatori corretti di valore atteso e va-rianza.

Page 117: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 117

5.2 Stima di parametri

Definizione 5.2.1 Sia X una variabile aleatoria con densita di probabilitadipendente da un parametro θ. Sia X1, . . . , Xn un campione casuale di X esia x1, . . . , xn il corrispondente valore del campione. Se g(X1, . . . , Xn) e unastatistica utilizzata per stimare θ allora g viene detta stimatore di θ. Il valoreche g assume, cioe g(x1, . . . , xn), e detto stima puntuale di θ e si scrive:

θ = g(x1, . . . , xn).

Definizione 5.2.2 Se la stima di un parametro θ della popolazione forniscegli estremi di un intervallo fra i quali si suppone, con un certo grado difiducia, che il parametro sia compreso, tale stima e detta stima per intervallodi θ.

Nel seguente paragrafo sara descritta una delle tecniche di stima puntualepiu popolare, ovvero la stima di massima verosimiglianza.

5.2.1 Stime di massima verosimiglianza

Consideriamo il campione casuale X1, X2, . . . , Xn la cui densita di probabi-lita e nota a meno di un parametro θ. Un problema interessante e quello distimare il parametro in funzione del valore assunto dalle variabili del cam-pione.Una particolare classe di stimatori sono quelli di massima verosimiglianza.Indichiamo con f(x1, . . . , xn; θ) la funzione densita di probabilita congiuntadi X1, X2, . . . , Xn. Si puo interpretare f(x1, . . . , xn; θ) come la verosimiglian-za che si realizzi la n−upla di dati x1, x2, . . . , xn quando θ e il valore assuntodal parametro. Sembra piuttosto ragionevole adottare come stima di θ ilvalore che rende massima la verosimiglianza per i dati osservati.Consideriamo il seguente esempio. Sia X una variabile aleatoria di Bernoullicon parametro incognito p. La sua densita di probabilita e

f(X = k; p) = pk(1− p)1−k, k = 0, 1, 0 < p < 1.

Se X1, . . . , Xn e un campione di X il problema e trovare uno stimatoreg(X1, . . . , Xn) cosicche g(x1, . . . , xn) sia una buona stima di p, essendo x1, . . . ,xn i valori assunti dal campione osservato.

Page 118: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 118

La probabilita che le variabili X1, . . . , Xn assumano tali valori e

P (X1 = x1, X2 = x2, . . . , Xn = xn) =n∏

i=1

pxi(1− p)1−xi

= p∑n

i=1 xi(1− p)n−∑n

i=1 xi

in quanto le variabili aleatorie sono indipendenti. Come detto in preceden-za l’idea e quella di prendere come stima di p il valore che massimizza lafunzione di probabilita congiunta del campione casuale. Tale funzione vienedetta funzione di verosimiglianza (funzione di likehood). In questo caso laindichiamo con L(p) perche dipende dall’incognita p ed e uguale a:

L(p) = L(p; x1, . . . , xn) = f(x1; p)f(x2; p) . . . f(xn; p)

= p∑n

i=1 xi(1− p)n−∑n

i=1 xi .

Per trovare il massimo di L(p) calcoliamo la derivata prima ed imponiamoche sia uguale a zero:

dL(p)

dp=

n∑

i=1

xip∑n

i=1 xi−1(1− p)n−∑n

i=1 xi+

−(

n−n∑

i=1

xi

)

p∑n

i=1 xi(1− p)n−∑n

i=1 xi−1

= p∑n

i=1 xi(1− p)n−∑n

i=1 xi

[∑ni=1 xi

p− n−∑n

i=1 xi

1− p

]

= 0.

Da cui risulta

(1− p)n∑

i=1

xi − np+ pn∑

i=1

xi = 0

e quindi

p =1

n

n∑

i=1

xi = X.

Tale stima prende il nome di stima di massima verosimiglianza (maximumlikehood). Spesso puo essere piu semplice trovare il massimo del logaritmo

Page 119: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 119

naturale della funzione di verosimiglianza perche il logaritmo e una funzionemonotona crescente pertanto il punto di massimo e lo stesso.

logL(p) =n∑

i=1

xi log p+

(

n−n∑

i=1

xi

)

log(1− p).

In quest’ultimo caso la funzione logL(p) e detta funzione di log-verosimiglianza(log-likehood). Uguagliando a zero la derivata prima si trova

d logL(p)

dp=

(n∑

i=1

xi

)

1

p+

(

n−n∑

i=1

xi

)(

− 1

1− p

)

= 0

la cui soluzione e lo stesso valore trovato in precedenza p = X.Sia X una variabile aleatoria geometrica e sia X1, . . . , Xn un campione ca-suale. Si vuole trovare la stima di massima verosimiglianza del parametro p.La densita di probabilita di X e

f(x; p) = (1− p)x−1p.

La funzione di verosimiglianza e

L(p) = pn(1− p)∑n

i=1 xi−n.

Calcoliamo il logaritmo naturale di L(p)

logL(p) = n log p− log(1− p)

(n∑

i=1

xi − n

)

ed imponiamo che la derivata prima sia uguale a zero

d logL(p)

dp=

n

p−

n∑

i=1

xi − n

1− p= 0

(1− p)n− p

(n∑

i=1

xi − n

)

= 0

n− np− p

n∑

i=1

xi + np = 0

Page 120: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 120

da cui si ricava la soluzione

p =1

X.

Sia X una variabile aleatoria di Posson e sia X1, . . . , Xn un campione casuale.Si vuole trovare la stima di massima verosimiglianza del parametro λ. Ladensita di probabilita di X e

f(x;λ) =λxe−λ

x!, x ∈ N.

La funzione di verosimiglianza e

L(λ) =λ∑n

i=1 xie−nλ

x1!x2! . . . xn!.

Calcoliamo il logaritmo naturale di L(λ)

logL(λ) =n∑

i=1

xi log λ− nλ− log c

avendo postoc = x1!x2! . . . xn!.

Imponiamo che la derivata prima sia uguale a zero

d logL(λ)

dλ=

1

λ

n∑

i=1

xi − n = 0

da cui si ricava la soluzioneλ = X.

Il metodo della massima verosimiglianza si puo applicare anche per stimare iparametri di variabili aleatorie continue anche se la funzione densita di pro-babilita non rappresenti realmente una probabilita.Sia X una variabile aleatoria con densita di probabilita esponenziale e siaX1, . . . , Xn un campione casuale. Si vuole trovare la stima di massimaverosimiglianza del parametro α. La densita di probabilita di X e

f(x;α) = αe−αx, x > 0.

La funzione di verosimiglianza e

L(α) = L(α; x1, . . . , xn) = αne−α∑n

i=1 xi .

Page 121: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 121

logL(α) = n logα− α

n∑

i=1

xi.

d logL(α)

dα=

n

α−

n∑

i=1

xi = 0 ⇔ α =n

n∑

i=1

xi

=1

X.

La stima di massima verosimiglianza puo essere utilizzata anche se si de-vono stimare piu parametri incogniti θ1, . . . , θm e la funzione di probabi-lita del campione e f(x; θ1, . . . , θm). In questo caso infatti la funzione diverosimiglianza diventa

L(θ1, . . . , θm) = f(x1; θ1, . . . , θm) . . . f(xn; θ1, . . . , θm).

Trovata la m−upla che massimizza L(θ1, . . . , θm), allora

θ1 = g1(X1, . . . , Xn)

θ2 = g2(X1, . . . , Xn)...

θm = gm(X1, . . . , Xn)

sono le stime di massima verosimiglianza dei parametri θ1, . . . , θm.Se X1, . . . , Xn e un campione casuale della variabile aleatoria X di tipo nor-male N(µ, σ2), si vuole determinare la stima di massima verosimiglianza peri parametri µ e σ2. Poniamo per comodita θ1 = µ e θ2 = σ2. La funzione dimassima verosimiglianza e

L(θ1, θ2) =n∏

i=1

1√2πθ2

exp

[

−(xi − θ1)2

2θ2

]

=

(1

2πθ2

)n2

exp

[

−∑n

i=1(xi − θ1)2

2θ2

]

logL(θ1, θ2) = −n

2log(2πθ2)−

1

2θ2

[n∑

i=1

(xi − θ1)2

]

.

Calcoliamo le derivate parziali rispetto alle incognite

∂θ1logL(θ1, θ2) =

1

θ2

n∑

i=1

(xi − θ1)

Page 122: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 122

∂θ2logL(θ1, θ2) = − n

2θ2+

1

2θ22

n∑

i=1

(xi − θ1)2.

Eguagliando a zero la prima equazione segue

∂θ1logL(θ1, θ2) =

1

θ2

n∑

i=1

(xi − θ1) = 0 ⇔ θ1 = X.

Eguagliando a zero la seconda equazione e sostituendo θ1 = X segue

θ2 =1

n

n∑

i=1

(xi −X)2,

quindi, ricordando la definizione di varianza del campione,

θ2 =n− 1

nS2.

5.3 Intervalli di confidenza per il valore atte-

so

Assegnato un campione casualeX1, . . . , Xn di una variabile aleatoria normaleavente varianza σ2 e valore atteso incognito µ. Per ogni n la statistica

Z =X − µ

σ/√n

ha densita normale standard. Si vuole utilizzare la statistica Z per misuraredi quanto la media X e vicina al valore atteso incognito µ. In dettaglio sivuole sfruttare la densita di probabilita di Z per determinare un cosiddettointervallo di confidenza per µ, supponendo nota la varianza σ2. Se

P (−z ≤ Z ≤ z) = 1− α

allora z deve essere uguale al quantile gaussiano zα/2, come si deduce dallasuccessiva figura.

Page 123: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 123

Area= 1− α

Area= α/2Area= α/2

zα/2−zα/2

Una volta stabilito il valore 1−α dalle tabelle della densita normale standardsi trova il valore zα/2 tale che

P

(

−zα/2 ≤X − µ

σ/√n

≤ zα/2

)

= 1− α.

Quindi

−zα/2 ≤X − µ

σ/√n

≤ zα/2

−zα/2σ√n≤ X − µ ≤ zα/2

σ√n

−X − zα/2σ√n≤ −µ ≤ −X + zα/2

σ√n

X − zα/2σ√n≤ µ ≤ X + zα/2

σ√n.

Cosı la probabilita che l’intervallo[

X − zα/2σ√n, X + zα/2

σ√n

]

includa la media incognita µ e 1 − α. Tale intervallo viene detto intervallodi confidenza al 100(1 − α)% per il valore atteso µ. Il numero 100(1 − α)%si dice grado di fiducia.In un modo molto simile si possono costruire anche intervalli di confidenzada un lato:

P

(X − µ

σ/√n

≤ zα

)

= 1− α,

come si deduce dalla seguente figura

Page 124: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 124

Area= 1− α

Area= α

P

(

X − zασ√n≤ µ

)

= 1− α.

In questo caso l’intervallo di confidenza e

[

X − zασ√n, +∞

)

.

In modo analogo si puo definire un intervallo di confidenza sinistro, tale che

P

(X − µ

σ/√n

≥ z1−α

)

= 1− α.

Se α e il livello di significativita del test e z1−α e il quantile gaussiano, risultaz1−α = −zα, come illustrato nella seguente figura.

Area= 1− αArea= α

zαz1−α = −zα•

Page 125: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 125

Quindi

P

(X − µ

σ/√n

≥ −zα

)

= 1− α

e l’intervallo di confidenza e(

−∞, X + zασ√n

]

.

I valori piu comunemente usati per il grado di fiducia sono 0.90, 0.95 e 0.99.I relativi valori per i quantili gaussiani piu usati sono:

grado di fiducia al 90% z0.05 = 1.645grado di fiducia al 95% z0.025 = 1.96grado di fiducia al 99% z0.005 = 2.576.

Il metodo descritto per determinare un intervallo di confidenza trovato valeanche se il campione non ha densita normale, infatti applicando il Teoremadel limite centrale segue che

P

(

−zα/2 ≤X − µ

σ/√n

≤ zα/2

)

≃ 1− α.

Tale relazione vale solo per n sufficientemente grande (indicativamente n ≥30).

Esempio 5.3.1 Le misure dei diametri di un campione casuale di 200 sferet-te per cuscinetti prodotte da una macchina in una settimana ha una mediaX = 0.824 e deviazione standard σ = 0.042. Determinare gli intervalli diconfidenza per il valore atteso µ con grado di fiducia del 95% e del 99%.

a) Poiche n = 200 ed il valore di α e

1− α = 0.95 ⇒ α = 0.05 ⇒ z0.025 = 1.96

quindi l’intervallo di confidenza e

0.824− 1.96

(0.042√200

)

≤ µ ≤ 0.824 + 1.96

(0.042√200

)

0.818 ≤ µ ≤ 0.830.

Page 126: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 126

b) Poiche α = 0.01 e

1− α = 0.99 ⇒ z0.005 = 2.576

quindi l’intervallo di confidenza e

0.824− 2.576

(0.042√200

)

≤ µ ≤ 0.824 + 2.576

(0.042√200

)

0.816 ≤ µ ≤ 0.832.

Osserviamo che aumentando il grado di fiducia l’ampiezza dell’intervalloaumenta, ovvero a parita del numero di ossevazioni la stima e meno precisa.

Esempio 5.3.2 Si vuole determinare un intervallo di confidenza per il valoreatteso del numero di battiti cardiaci al minuto per una determinata popola-zione. Il numero medio di battiti al minuto misurati su un campione di 49persone e risultato pari a 90. La popolazione ha densita normale standardcon deviazione standard σ = 10.a) Determinare gli intervalli di confidenza per il valore atteso con grado difiducia 90%, 95% e 99%.b) Determinare l’ampiezza campionaria che si sarebbe dovuto utilizzare perottenere lo stesso intervallo di confidenza ottenuto al 90%.

a) In questo caso n = 49 ed il valore di α e

z0.05 = 1.645

quindi l’intervallo di confidenza e

90− 1.645

(10√49

)

≤ µ ≤ 90 + 1.645

(10√49

)

87.65 ≤ µ ≤ 92.35.

Se z0.025 = 1.96 l’intervallo di confidenza e

90− 1.96

(10√49

)

≤ µ ≤ 90 + 1.96

(10√49

)

87.20 ≤ µ ≤ 92.70.

Page 127: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 127

Se z0.005 = 2.576 l’intervallo di confidenza e

90− 2.576

(10√49

)

≤ µ ≤ 90 + 2.576

(10√49

)

86.32 ≤ µ ≤ 93.68.

b) Posto n1 l’ampiezza del campione relativa al grado di fiducia del 95% deveessere verificata la seguente uguaglianza

1.645

(10√49

)

= 1.96

(10√n1

)

da cui si ricava (facendo i calcoli) n1 ≃ 70.Posto n2 l’ampiezza del campione relativa al grado di fiducia del 99% deveessere verificata la seguente uguaglianza

1.645

(10√49

)

= 2.576

(10√n2

)

da cui si ricava (facendo i calcoli) n2 ≃ 120.

Esempio 5.3.3 Sia assegnato un campione di ampiezza 100 estratto da unapopolazione avente deviazione standard σ = 5.1. La media campionaria eX = 21.6. Costruire l’intervallo di confidenza al 95% per la media µ dellapopolazione.

Conoscendo σ possiamo sfruttare la circostanza che la variabile aleatoria(X − µ)/(σ/

√n) ha densita normale standard. Poiche

P

(

z ≤ X − µ

σ/√n

≤ z

)

= 0.95

sappiamo che α = 0.05

z = zα/2 = z0.025 = 1.96

consultando le tabelle per la funzione Φ(x). Quindi

X − 1.965.1√100

≤ µ ≤ X + 1.965.1√100

21.6− 1.965.1√100

≤ µ ≤ 21.6 + 1.965.1√100

20.6 ≤ µ ≤ 22.6

Questo intervallo puo anche non contenere µ ma abbiamo un livello di fiduciaal 95% che lo contenga.

Page 128: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 128

Il caso delle varianza incognita: il test t

Se l’ampiezza del campione n non e molto grande e la varianza non e notaallora si puo sfruttare la proprieta che la variabile aleatoria

T =X − µ

S/√n

ha densita t-Student con r = n− 1 gradi di liberta. Se invece l’ampiezza delcampione e sufficientemente grande allora la statistica T ha densita normalestandard. Si puo convenzionalmente fissare a 30 un valore sufficientementegrande per n. Analogamente a quanto gia visto per le variabili aleatorienormali standard anche per quella t di Student vengono definiti i quantilitα,n, dove 0 < α < 1, ed n e il numero di gradi di liberta, come quei numeritali che

P (T ≥ tα,n) = α,

come illustrato nella seguente figura.

tα,n

Area= 1− α

Area= α

Consultando le tabelle si determina il quantile tα/2,n−1 tale che

P(T ≥ tα/2,n−1

)=

α

2

cosicche

P

(

−tα/2,n−1 ≤X − µ

S/√n

≤ tα/2,n−1

)

= 1− α

si arriva all’intervallo di confidenza[

X − tα/2,n−1S√n,X + tα/2,n−1

S√n

]

.

Page 129: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 129

Esempio 5.3.4 Consideriamo il seguente insieme di dati:

481 537 513 583 453 510 570 500 457 555618 327 350 643 499 421 505 637 599 392.

La media e la deviazione standard del campione sono:

X = 507.50, S = 89.75

vogliamo trovare un intervallo di confidenza al 90% per il valore atteso.

Poiche n = 20 ed il valore di α e

1− α = 0.9 ⇒ α = 0.1 ⇒ α/2 = 0.05

dalle tabelle ricaviamo il numero t0.05,19 = 1.7291 da cui l’intervallo di confi-denza

[

507.50− 1.7291

(89.75√

20

)

, 507.50 + 1.7291

(89.75√

20

)]

≡ [507.50− 34.70, 507.50 + 34.70] ≡ [472.80, 542.20].

5.4 Intervalli di confidenza per la varianza

Nel calcolo dell’intervallo di confidenza per la media di un grande campionesi e osservato che, se la varianza σ2 non e nota essa puo essere sostituita conla varianza campionaria S2 (o lo scarto quadratico medio S). In qualche casoe pero necessario determinare intervalli di confidenza per la varianza σ. SeX1, X2, . . . , Xn e un campione proveniente da una variabile aleatoria normalecon parametri (µ, σ2), entrambi incogniti, e possibile costruire intervalli diconfidenza per la varianza sfruttando la proprieta che la variabile aleatoria(n− 1)S2/σ2 ha densita χ2

n−1.

Page 130: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 130

x

y

Area=α/2Area=α/2

χ21−α/2,n χ2

α/2,n

Infatti

1− α = P

(

χ21−α/2,n−1 ≤ (n− 1)

S2

σ2≤ χ2

α/2,n−1

)

= P

(

χ21−α/2,n−1

(n− 1)S2≤ 1

σ2≤

χ2α/2,n−1

(n− 1)S2

)

= P

(

(n− 1)S2

χ2α/2,n−1

≤ σ2 ≤ (n− 1)S2

χ21−α/2,n−1

)

.

Se S2 e il valore della varianza campionaria calcolato allora l’intervallo diconfidenza per la varianza e:

[

(n− 1)S2

χ2α/2,n−1

,(n− 1)S2

χ21−α/2,n−1

]

.

Esempio 5.4.1 In una scuola e stato scelto a caso un campione di 16 stu-denti dell’ultimo anno e si e misurata l’altezza di ciascuno di essi. La va-rianza campionaria della misura delle altezza e S2 = 37.09 com2. Calcolareun intervallo di confidenza per σ2 al 95% e al 99%.

Per il grado di fiducia al 95% abbiamo

α = 0.05, n− 1 = 16− 1 = 15

pertanto

1− α

2= 0.975.

Page 131: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 131

Dalle tabelle relative ai quantili della variabile χ215 si ricavano

χ0.975,15 = 6.262, χ0.025,15 = 27.488

pertanto(n− 1)S2

27.488≤ σ2 ≤ (n− 1)S2

6.262

15 · 37.0927.488

≤ σ2 ≤ 15 · 37.096.262

20.23 ≤ σ2 ≤ 88.84.

Per il grado di fiducia al 99% abbiamo

α = 0.01, n− 1 = 16− 1 = 15

pertanto

1− α

2= 0.995

. Dalle tabelle relative ai quantili della variabile χ215 si ricavano

χ0.995,15 = 4.601, χ0.005,15 = 32.801

pertanto(n− 1)S2

32.801≤ σ2 ≤ (n− 1)S2

4.601

15 · 37.0932.801

≤ σ2 ≤ 15 · 37.094.601

16.96 ≤ σ2 ≤ 120.92.

In modo analogo a quanto visto per il valore atteso si potrebbero trovareintervalli ad un lato.

5.5 Test di ipotesi

Uno degli scopi piu importanti di un’analisi statistica e quello di utilizzare idati provenienti da un campione per fare ipotesi sulla popolazione da cui estato tratto il campione. In alcuni casi si puo stimare un parametro di unapopolazione in altri casi puo rendersi necessario congetturare se un’ipotesifatta su un parametro sia o meno realistica.

Page 132: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 132

Definizione 5.5.1 Un’ipotesi formulata in termini di parametri di una po-polazione, come valore atteso e varianza, e detta ipotesi statistica.

Il procedimento che consente di rifiutare o accettare un’ipotesi statisticautilizzando i dati di un campione viene chiamato test di ipotesi.

Esempio 5.5.1 Si vuole sottoporre a test l’affermazione di un produttoredi vernici secondo cui il tempo medio di asciugatura di una nuova vernice eµ = 20 minuti. A questo punto si prende un campione di 35 lattine di vernice,si effettuano 35 prove di verniciatura e si calcola il tempo medio di asciuga-tura, con l’intenzione di rifiutare l’affermazione del produttore se la mediaosservata supera il valore di 20 minuti, o di accettarla in caso contrario.

La verifica delle ipotesi statistiche inizia con la definizione del problema intermini di ipotesi sul parametro di interesse.L’ipotesi da sottoprre a test viene detta ipotesi nulla, ed e indicata con H0,e coincide solitamente con la situazione attuale ed e quella che si ritiene verafino a prova contraria. L’ipotesi opposta, che risulta vera qualora l’ipotesinulla sia falsa, e detta ipotesi alternativa ed e indicata con H1.Nell’esempio definito in precedenza l’ipotesi nulla e

H0 : µ ≤ 20 minuti,

mentre l’ipotesi alternativa e

H1 : µ > 20 minuti.

Osservazione. La verifica delle ipotesi non serve a dimostrare la veridicita diun’ipotesi ma fornisce solo un’indicazione del fatto che l’ipotesi sia o menoavvalorata dai dati disponibili. Quando non si rifiuta l’ipotesi nulla non siafferma che e vera ma solo che puo essere vera in quanto i dati del campioneosservato non forniscono prove sufficienti a garantirne il rifiuto.

5.5.1 Tipi di errore e livello di significativita

Dopo aver formulato le ipotesi occorre specificare quale risultato del campioneportera al rifiuto dell’ipotesi nulla. La media e la varianza del campione sonostimatori corretti dei corrispondenti parametri della popolazione e, poiche ilvalore della statistica e calcolato da un campione, ci aspettiamo che la stati-stica sia abbastanza vicina al parametro della popolazione.

Page 133: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 133

Nell’esempio considerato se fosse X = 20.50 potremmo ragionevolmente con-cludere che l’ipotesi nulla e vera. E chiaro che bisogna definire matematica-mente il concetto di abbastanza vicino. In generale, utilizzando le proprietadella densita del campione, si puo identificare un intervallo di valori dellastatistica che verosimilmente non si presentano se l’ipotesi nulla e vera. Ladensita di probabilita della statistica test e divisa in due regioni, una re-gione di rifiuto (detta anche regione critica) e una regione di accettazione,delimitate da uno o piu valori , detti valori critici.

Definizione 5.5.2 La regione di rifiuto corrisponde all’insieme dei valori diuna statistica campionaria che conducono al rifiuto dell’ipotesi nulla.L’insieme dei valori che invece portano all’accettazione dell’ipotesi nulla edetto regione di accettazione.

Se la statistica test, in base ai dati del campione, assume un valore che cadenella regione di rifiuto, l’ipotesi nulla deve essere rifiutata, se al contrario ilvalore cade nella regione di accettazione, l’ipotesi nulla non puo essere rifiu-tata. La regione di rifiuto puo essere vista come l’insieme dei valori dellastatistica test che non e probabile che si verifichino quando l’ipotesi nullae vera, mentre e probabile che si verifichino quando l’ipotesi nulla e falsa.Pertanto, se il campione test porta ad un valore della statistica test che cadenella regione di rifiuto, si rifiuta l’ipotesi nulla poiche e probabile che non siavera.Quando si arriva ad una conclusione, in base alle considerazioni fatte, e anchepossibile che essa sia sbagliata. In questo modo si identificano due tipi dierrore. per illustrare questo torniamo all’esempio descritto in precedenza.Supponiamo di aver identificato la regione di accettazione decidendo di ac-cettare l’ipotesi nulla se la media non supera i 20.50 minuti. Puo accadereche la media del campione osservato sia superiore ai 20.50 minuti stabilitimentre il valore corretto di µ sia effettivamente inferiore ad esso. Un altrocaso puo essere quello in cui la media del campione osservato sia inferiore a20.50 minuti mentre il valore corretto sia effettivamente superiore ad esso.

Definizione 5.5.3 Se l’ipotesi H0 e vera, ma viene erroneamente rifiutata,si commette un errore del I tipo, la probabilita di commettere tale errore eindicato con α.Se l’ipotesi H0 e falsa, ma viene erroneamente accettata, si commette unerrore del II tipo, la probabilita di commettere tale errore e indicato con β.

Questi risultati possono essere riassunti nel seguente schema:

Page 134: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 134

H0 vera H0 falsaRifiutare H0 Errore del I tipo Decisione corretta

P(Errore)= α Potenza = 1− βAccettare H0 Decisione corretta Errore del II tipo

Confidenza = 1− α P(Errore)= β

Esempio 5.5.2 Assumiamo che sia σ = 2 minuti e che studiamo la proba-bilita di commettere un errore del I tipo, ossia la probabilita α che il valoreatteso superi 20.50 minuti, anche se il valore atteso effettivo della popolazionee µ = 20 minuti.

Regione di rifiuto

Regione di accettazione

20.50

La regione a destra del valore 20.50 e la regione di rifiuto, quella di sinistrae la regione di accettazione: se il valore della media campionaria cade adestra di 20.50 l’ipotesi nulla viene rifiutata, altrimenti non viene rifiutata.Applicando il teorema del limite centrale e calcolando la deviazione standarddi X:

σ√n=

2√35

= 0.34.

Calcoliamo il valore della statistica Z

Z =X − µ

σ/√n

=20.5− 20

0.34= 1.47.

Utilizzando le tabelle della variabile aleatoria normale

P (Z > 1.47) = 1− P (Z ≤ 1.47) = 1− 0.9292 = 0.0708

Page 135: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 135

quindi la probabilita di rifiutare erroneamente l’ipotesi nulla e

α = 0.0708.

Quando la regione di rifiuto e costituita da un intervallo, come nell’esempiovisto, il test si dice unilaterale o a una coda, quando invece la regione dirifiuto e costituita da due regioni disgiunte il test si dice bilaterale o a duecode come riportato nella seguente figura

Regione di rifiuto Regione di rifiuto

Regione di accettazione

Valori critici

Definizione 5.5.4 Il livello di significativita e la probabilita α di commettereun errore del I tipo, mentre il suo complemento a 1, 1 − α, viene dettocoefficiente di confidenza.

Definizione 5.5.5 Il livello di confidenza e pari a 100(1− α)%.

Definizione 5.5.6 Il rischio β e la probabilita di commettere un errore delII tipo, mentre il suo complemento a 1 si dice Potenza del test.

Test di ipotesi sul valore atteso (varianza nota)

Descriviamo il procedimento per eseguire il test ipotesi sulla media di unapopolazione avente varianza σ2 nota. Il test si basa sulla statistica

Z =X − µ0

σ/√n

dove n e l’ampiezza campionaria e µ0 e il valore di µ assunto nell’ipotesinulla:

H0 : µ = µ0.

Page 136: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 136

Ipotizziamo, al solito, un test per grandi campioni (n ≥ 30), in modo taleche Z abbia densita normale standard. Se X fosse una variabile normale nonci sarebbero vincoli sull’ampiezza campionaria. Sia zα il valore di Z per cuil’area alla sua destra al di sotto della curva normale standardizzata e ugualea α. Di seguito illustriamo le regioni di rifiuto per un assegnato livello disignificativita α, a seconda dell’ipotesi alternativa stabilita.

I Caso: test a una coda

Ipotesi alternativa H1 : µ > µ0

Regione di rifiuto z > zαRegione di accettazione z ≤ zα

Area= 1− α

Area= α

II Caso: test a una coda

Ipotesi alternativa H1 : µ < µ0

Regione di rifiuto z < −zαRegione di accettazione z ≥ −zα

Page 137: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 137

Area= 1− α

Area= α

z1−α = −zα

III Caso: test a due code

Ipotesi alternativa H1 : µ 6= µ0

Regione di rifiuto z < −zα/2, z > zα/2Regione di accettazione −zα/2 ≤ z ≤ zα/2

Area= 1− α

Area= α/2Area= α/2

zα/2−zα/2

Osservazione. Per precisione nei primi due casi sarebbe stato piu precisodefinire come ipotesi nulla µ ≤ µ0 e µ ≥ µ0 tuttavia lo scopo era quello dievidenziare l’ipotesi alternativa esemplificando la trattazione.Riepilogando, le fasi per la verifica delle ipotesi sono le seguenti:1. Specificare l’ipotesi nulla e l’ipotesi alternativa;2. Scegliere il livello di significativita α e l’ampiezza campionaria n;3. Individuare la statistica test cui fare riferimento e la corrispondente densitadi probabilita campionaria;

Page 138: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 138

4. Calcolare i valori critici che separano la regione di rifiuto da quella diaccettazione;5. Raccogliere i dati e calcolare il valore campionario della statistica test;6. Prendere la decisione statistica. Se la statistica test cade nella regione diaccettazione allora l’ipotesi nulla H0 non puo essere rifiutata. Se la statisticatest cade nella regione di rifiuto allora l’ipotesi nulla H0 viene rifiutata.

Esempio 5.5.3 Una fabbrica produce scatole di cereali ognuna delle qualidovrebbe contenere, in media, 368 grammi di prodotto. Per monitorare ilprocesso produttivo si estrae un campione casuale di 25 scatole e se ne calcolail peso medio, che corrisponde a X = 372.5. Supponiamo inoltre che ilcampione abbia densita normale con deviazione standard nota σ = 15. Sivuole verificare la veridicita del test ad un livello di confidenza del 95%.

Le ipotesi nulla e quella alternativa sono quindi

H0 : µ = 368, H1 : µ 6= 368.

Se si suppone che il campione sia di tipo normale e che la deviazione standardsia nota allora il test di verifica delle ipotesi puo utilizzare la statistica Z

Z =X − µ

σ/√n

che ha densita normale standard.Poniamo α = 0.05, il che implica che la regione di rifiuto deve avere area pariad α. Poiche z0.025 = 1.96 allora la regione di accettazione e

[−1.96, 1.96].

Ipotizziamo la media del campione sia X = 372.5 e calcoliamo Z

Z =372.5− 368

15/√25

= 1.50.

L’ipotesi nulla viene pertanto accettata (o meglio) non viene rifiutata inquanto il valore di Z ricade nella regione di accettazione, come evidenziatonella seguente figura.

Page 139: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 139

Area= 0.95

Area= 0.025Area= 0.025

+1.961.50•

−1.96 Z

379.52356.48 368 X

Regione di rifiutoRegione di rifiuto

Regione diaccettazione

Esempio 5.5.4 Un’azienda produce barrette di cioccolato ed e interessatache il peso non superi i 150 grammi. L’esperienza accumulata consente diipotizzare che la deviazione standard del peso sia un grammo. Si selezione uncampione casuale di 50 barrette e si trova che hanno un peso medio di 150.2grammi. Si vuole sapere se esiste un’evidenza, al livello α = 0.01, favorevoleall’ipotesi che il peso medio non superi i 150 grammi.

Definiamo innanzitutto l’ipotesi nulla e quella alternativa

H0 : µ ≤ 150, H1 : µ > 150.

Poniamo α = 0.01, n = 50 e, poiche e noto che σ = 1 si deve utilizzarela statistica Z, che e normale standard. Trattandosi di un test a una codadobbiamo determinare un solo valore critico, ovvero z0.01 che e circa 2.33. Laregione di accettazione e

(−∞, 2.33] .

Calcoliamo il valore di Z

Z =X − µ0

σ/√n

=150.2− 150

1/√50

= 1.41.

Poiche tale numero e inferiore al valore critico allora l’ipotesi nulla vieneaccettata.

Page 140: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 140

Il caso delle varianza incognita: il test t

Il caso piu frequente che si deve studiare e quello in cui ne il valore atteso µ nela varianza σ2 sono noti. Supponiamo quindi di voler verificare l’ipotesi nullache µ sia uguale ad un certo valore µ0, contro l’ipotesi alternativa µ 6= µ0 :

H0 : µ = µ0, H1 : µ 6= µ0.

Anche in questo caso sembra ragionevole rifiutare l’ipotesi nulla quando Xcade lontano da µ0. E chiaro che si deve stabilire un criterio che misuritale distanza in senso probabilistico. Poiche la varianza e incognita si devesfruttare la proprieta che la variabile aleatoria

T =X − µ

S/√n

e una variabile aleatoria t di Student con n − 1 gradi di liberta, se n non emolto grande. Se α e la probabilita di errore del I tipo allora si deve trovareprima il valore c tale che

P

(

−c ≤ X − µ

S/√n

≤ c

)

= 1− α

quando µ = µ0. Sfruttando le proprieta di simmetria della densita dellavariabile t si ricava facilmente che c = tα/2,n−1. In conclusione si risolve ilproblema decidendo che si accetta H0 se

−tα/2,n−1 ≤X − µ0

S/√n

≤ tα/2,n−1

e rifiutandola in caso contrario.

Esempio 5.5.5 Un’azienda produce fogli di carta per stampanti che dovreb-bero avere una lunghezza media pari a 33 cm. Ad intervalli regolari vengonoestratti campioni di fogli per stabilire se la lunghezza media sia effettivamentequella voluta oppure se qualche parte del processo produttivo ha causato unasua variazione. Si estrae quindi un campione casuale di 25 fogli e si trova chela lunghezza media e 32.994 cm., mentre la deviazione standard campionariae 0.05 cm. Si vuole testare al 95% l’ipotesi che la lunghezza sia 33 cm.

Page 141: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 141

Definiamo innanzitutto l’ipotesi nulla e quella alternativa:

H0 : µ = 33, H1 : µ 6= 33.

I valori della significativita e di n sono rispettivamente α = 0.05 e 25. Si deveutilizzare un test di tipo t a due code tale che la regione di accettazione dellavariabile aleatoria t sia, in modulo minore del valore t0.025,24, che, consultandole tabelle, risulta essere

t0.025,24 = 2.0639.

La regione di accettazione e

[−2.0639, 2.0639].

Il valore di t in questo caso e

T =X − µ

S/√n

=32.994− 33

0.05/5= −0.6.

Poiche il tale valore risulta minore di t0.025,24 allora l’ipotesi nulla vieneaccettata.

Esempio 5.5.6 E stato affermato che il peso medio degli individui adultidi una nazione e µ = 68.5 kg. Volendo aottoporre questa ipotesi a verificasi considera un campione casuale di 625 individui che vengono pesati. Siottiene un valore medio campionaio di 69.1 kg con una deviazione standardcampionaria S = 7 kg. Si vuole sapere quale conclusione si puo trarre conlivello di significativita del 5%.

Definiamo l’ipotesi nulla e quella alternativa:

H0 : µ = 68.5H1 : µ 6= 68.5

Non conoscendo la varianza ma solo la deviazione standard campionariadobbiamo utilizzare la statistica

T =X − µ0

S/√n, µ0 = 68.5, S = 7,

√n =

√625 = 25

che, essendo il campione sufficientemente ampio, ha densita normale stan-dard.

Page 142: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 142

Poiche α = 0.05 e α/2 = 0.025 allora la regione di accettazione e delimitatadai quantili gaussiani [−z0.025, z0.025] ovvero [−1.96, 1.96]. Calcoliamo ora ilvalore della statistica T :

X − µ0

S/√n

=69.1− 68.5

7/25= 2.14.

Poiche il valore cade al di fuori della regione di accettazione l’ipotesi nullaviene rigettata con un rischio del 5%.

Esempio 5.5.7 Sottoporre a test la stessa ipotesi dell’esempio precedentecon un campione di 25 individui lasciando gli altri dati invariati.

In questo caso la statistica

T =X − µ0

S/√n, µ0 = 68.5, S = 7,

√n =

√25 = 5

ha densita t di Student con n − 1 = 24 gradi di liberta. I valori critici sono±t0.025,24, che, consultando le relative tabelle definiscono la seguente regionedi accettazione

[−2.0639, 2.0639].

Calcoliamo ora il valore della statistica T :

X − µ0

S/√n

=69.1− 68.5

7/5= 0.43.

L’ipotesi nulla viene accettata con livello di significativita del 5%.

Esempio 5.5.8 Una compagnia aerea afferma che il peso medio del bagagliodei passeggeri dei suoi voli di linea µ = 19.8 kg. Per sottoporre a verificatale ipotesi si considera un campione di 324 passeggeri da cui emerge che ilpeso medio del campione e X = 29.3 con scarto quadratico medio S = 3.6kg. Quale sara la conclusione con un livello di significativita dell’1%?

Definiamo l’ipotesi nulla e quella alternativa:

H0 : µ = 19.8H1 : µ 6= 19.8

Page 143: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 143

Non conoscendo la varianza ma solo la deviazione standard campionariadobbiamo utilizzare la statistica

T =X − µ0

S/√n, µ0 = 19.8, S = 3.6,

√n =

√324 = 18

che, essendo il campione sufficientemente ampio, ha densita normale stan-dard.Poiche α = 0.01 e α/2 = 0.005 allora la regione di accettazione e delimitatadai quantili gaussiani [−z0.005, z0.005] ovvero

[−2.58, 2.58].

Calcoliamo ora il valore della statistica T :

X − µ0

S/√n

=20.3− 19.8

3.6/18= 2.5.

Poiche il valore cade nella regione di accettazione l’ipotesi nulla viene accet-tata con un livello di significativita dell’1%.

5.5.2 Il p−value

Consideriamo il seguente esempio.

Esempio 5.5.9 Da una popolazione normale avente σ = 2 si estrae uncampione di ampiezza n = 10. Il valor medio del campione e X = 18.58.Sottoporre a test l’ipotesi nulla

H0 : µ = 20

scegliendo come ipotesi alternativa

H1 : µ 6= 20

ai livelli di significativita dell’1% e del 5%.

Poiche la popolazione e normale si puo utilizzare la statistica Z anche sel’ampiezza del campione e n = 10. Per il primo caso abbiamo α = 0.01 edobbiamo applicare un test a due code, quindi la regione di accettazione erappresentata dall’intervallo

[−z0.005, z0.005] ≡ [−2.576, 2.576].

Page 144: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 144

Calcoliamo ora il valore della statistica Z:

X − µ0

σ/√n

=18.58− 20

2/√10

= −2.245.

Poiche il valore cade nella regione di accettazione l’ipotesi nulla viene accet-tata con un livello di significativita del 5%.Per il secondo caso abbiamo α = 0.025 e dobbiamo applicare un test a duecode, quindi la regione di accettazione e rappresentata dall’intervallo

[−z0.025, z0.025] ≡ [−1.96, 1.96].

Il valore della statistica Z e lo stesso calcolato in precedenza e questa voltacade nella regione di rifiuto pertanto l’ipotesi nulla viene rigettata.Nel caso in questione si possono trarre le seguenti coclusioni:a) I dati campionari consentono di accettare l’ipotesi nulla con livello di si-gnificativita dell’1%.b) I dati campionari non consentono di accettare l’ipotesi nulla con livello disignificativita del 5%.Quindi la decisione dipende non solo dai dati campionari ma anche dal livellodi significativita. Questo e il motivo per cui negli ultimi anni si e affermatoun altro approccio alla verifica delle ipotesi, il cosiddetto p−value. Il p−valuerappresenta la probabilita di osservare un valore della statistica test ugua-le, o piu estremo, rispetto al valore campionario della statistica test quandol’ipotesi nulla e vera. Il p−value viene anche detto livello di significativitaosservato, in quanto coincide con il piu piccolo livello di significativita in cor-rispondenza del quale H0 viene rifiutata. Se il p−value e maggiore o ugualead α allora l’ipotesi nulla viene accettata, in caso contrario viene rifiuta-ta. Nell’esempio introdotto in precedenza il p−value si ottiene risolvendo laseguente equazione:

α

2= P (Z ≤ −2.245) = P (Z ≥ 2.245)

= 1− P (Z ≤ 2.245) = 1− 0.9876 = 0.0124

ovvero α = 0.0248. Il livello che fa da divisione tra la decisione di rifiutarel’ipotesi nulla e quella di accettarla e il livello del 2.48%, che rappresenta ilpiu piccolo valore per cui i dati disponibili permettono di rifiutare l’ipotesinulla.Per illustrare meglio questa tecnica consideriamo come esempio un test a unacoda.

Page 145: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 145

Esempio 5.5.10 In un fast-food si vuole verificare se il nuovo meccanismodi gestione delle ordinazioni ha ridotto il tempo medio di servizio che eradi 5 minuti. In base all’esperienza si sa che il campione e di tipo normalecon deviazione standard e di 1.5 minuti. Si estrae un campione casuale di25 ordini e si trova che il tempo medio e stato pari a 5.1 minuti. Si vuoledeterminare con un livello di significativita α = 0.05 se il tempo di attesa sie ridotto oppure e rimasto lo stesso.Innanzitutto definiamo le ipotesi

H0 : µ ≤ 5, H1 : µ > 5.

Poniamo α = 0.05 ed n = 25 e, poiche la deviazione standard e notautilizziamo la statistica Z:

Z =X − µ

σ/√n

=5.1− 5

1.5/5=

0.1

0.3= 0.33.

Calcoliamo la probabilita che Z sia maggiore di 0.33 :

P (Z ≥ 0.33) = 1− Φ(0.33) = 0.3707.

Poiche il p−value supera α allora l’ipotesi nulla viene accettata.

La seguente figura illustra la motivazione alla base della decisione di accettarel’ipotesi nulla considerando che z0.05 = 1.645.

Area= α

Area= p

1.6450.33••

Riassumendo, il test di verifica delle ipotesi utilizzando il p−value avviene incinque fasi:

Page 146: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 146

1. Specificare l’ipotesi nulla e l’ipotesi alternativa;2. Scegliere il livello di significativita α e l’ampiezza campionaria n;3. Individuare la statistica test cui fare riferimento e la corrispondente densitadi probabilita;4. Raccogliere i dati, calcolare il valore campionario e determinare il p−value;5. Prendere la decisione statistica. Se il p−value e maggiore di α alloral’ipotesi nulla H0 non puo essere rifiutata. Se il p−value e minore o ugualead α allora l’ipotesi nulla H0 viene rifiutata.Quando si utilizza la statistica Z il p−value e relativamente facile da calcolareutilizzando la tabella della funzione Φ(x). Se indichiamo con Z0 il valore dellastatistica ottenuto in base ai dati del campione allora puo essere ottenuto inbase alle seguenti formule:

p−value =

1− P (Z ≤ Z0) test a una coda H0 : µ ≤ µ0 H1 : µ > µ0

P (Z ≤ Z0) test a una coda H0 : µ ≥ µ0 H1 : µ < µ0

2[1− P (Z ≤ Z0)] test a due code H0 : µ = µ0 H1 : µ 6= µ0

Appare chiaro che l’analisi suddetta (soprattutto nel caso di test a due code)si applica sia nel caso in cui Z0 sia positivo che negativo.

Esempio 5.5.11 Calcolare il p−value per l’esempio 5.5.6.

Nell’esempio il valore della statistica Z e 2.14 quindi calcoliamo la probabilita

P (Z ≤ −2.14) + P (Z ≥ 2.14) = 2(1− Φ(2.14)) = 2(1− 0.98328) = 0.03236.

Poiche 0.03236 < α l’ipotesi nulla viene rigettata. Se il valore della statisticaZ fosse stato negativo ovviamente il p−value sarebbe stato lo stesso appenacalcolato.

Riepiloghiamo nella tabella alla pagina successiva le statistiche utilizzate e lerelative proprieta, utili per risolvere problemi di inferenza statistica relativiagli intervalli di oonfidenza e test di ipotesi.

5.6 La Retta di Regressione

Un altro problema di cui si occupa l’inferenza statistica e lo studio dei lega-mi tra due variabili aleatorie X e Y . Generalmente puo accadere che una

Page 147: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 147

Statistica Tipo di variabile Osservazionialeatoria

X Normale N(µ, σ2/n) Vale per n sufficientemente grande

X − µ

σ/√n

Normale N(0, 1) Vale per n sufficientemente grande

(n− 1)S2

σ2χ2n−1 Vale se X ha densita normale

X − µ

S/√n

t-Student Se n non e sufficientemente grande

X − µ

S/√n

Normale N(0, 1) Se n e sufficientemente grande

delle due e nota e si vorrebbero avere informazioni sull’altra visto che non epossibile predire il suo valore futuro con certezza. Le situazioni piu comuniprevedono una singola variabile Y di risposta e un certo numero di variabilidi ingresso (o di input). La piu semplice relazione e quella lineare

Y = αX + β (5.4)

in cui le costanti α, β devono essere determinate. Il metodo che si utilizzaper scegliere tra le infinite rette quella che approssima meglio la densita didati bidimensionali e noto come metodo dei minimi quadrati. La logica ditale metodo e la seguente: se i punti (xi, yi) appartenessero alla retta diequazione y = αx + β allora risulterebbe (yi − αxi − βi)

2 = 0 per ogni i. Setale retta non esiste allora si determina quella che rende minima la somma ditali quadrati detta retta di regressione. La situazione e schematizzata nellaseguente figura.

Page 148: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 148

x

yy = r(x)

(xi, yi)

(xi, r(xi))

5.6.1 Stima dei Parametri di Regressione

Supponiamo di aver osservato le risposte yi corrispondenti ai dati di ingressoxi, i = 1, . . . , n, e di volerle utilizzare per stimare α e β in un modello diregressione semplice. Indichiamo con Φ(α, β) la funzione

Φ(α, β) =n∑

i=1

(yi − αxi − β)2.

Il metodo dei minimi quadrati consiste nello scegliere come stime di α e βche minimizzano Φ(α, β). Calcoliamo le derivate parziali di Φ rispetto ad αe β :

∂Φ(α, β)

∂β= −2

n∑

i=1

(yi − αxi − β)

∂Φ(α, β)

∂α= −2

n∑

i=1

xi(yi − αxi − β).

Page 149: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 149

Per cercare i punti critici di Φ(α, β) uguagliamo a zero le due derivate parziali,ottenendo il sistema

n∑

i=1

yi = αn∑

i=1

xi + nβ

n∑

i=1

xiyi = αn∑

i=1

x2i + β

n∑

i=1

xi,

detto sistema delle equazioni normali. Posto

y =1

n

n∑

i=1

yi, x =1

n

n∑

i=1

xi

la prima equazione normale diventa

β = y − αx.

Sostituendo questa espressione nella seconda equazione normale

n∑

i=1

xiyi = (y − αx)nx+ αn∑

i=1

x2i

ovvero

α

(n∑

i=1

x2i − nx2

)

=n∑

i=1

xiyi − n x y

da cui si ricava che

α =

n∑

i=1

xiyi − n x y

n∑

i=1

x2i − nx2

.

Esempio 5.6.1 Calcolare i coefficienti della retta di regressione che appros-sima i seguenti valori

xi −1 0 1yi 1 0 1

Page 150: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 150

Applicando le formule viste abbiamo

3∑

i=1

xiyi = 0, x = 0, ⇒ α = 0

quindi

β = y =2

3

pertanto la retta ha equazione

y =2

3.

Esempio 5.6.2 Calcolare i coefficienti della retta di regressione che appros-sima i seguenti valori

xi −1 0 1 2yi 2 1 −1 −1

Applicando le formule viste abbiamo

4∑

i=1

xiyi = −5, x =1

2, x =

1

4⇒ α = −11

10

quindi

β =1

4+

11

8

1

2=

15

16

pertanto la retta ha equazione

y = −11

8x+

4

5.

5.7 Esercizi di riepilogo

Esercizio 5.7.1 La deviaziona standard campionaria dell durata di un cam-pione di 25 lampadine e S = 100 ore. Trovare l’intervallo di confiden-za al 95% della deviazione standard σ ipotizzando che il campione abbiadistribuzione normale.

Page 151: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 151

Esercizio 5.7.2 Cinque studenti effettuano in modo indipendente il calcoloapprossimato del numero π e trovano i seguenti valori:

3.12 3.16 2.94 3.20 3.33.

Trovare un intervallo di confidenza per il valore atteso e la varianza con gradodi fiducia del 95% e del 99%, ipotizzando che il campione abbia distribuzionenormale.

Esercizio 5.7.3 La distribuzione dei pesi, in grammi, dei pacchetti usati daun’azienda per confezionare le caramelle ha una densita normale con devia-zione standard σ pari a 7. Per stimare il peso medio si estrae un campione di10 pacchetti ottenendo un valore medio pari a X = 177.9. Si vuole costruireun intervallo di confidenza al 90%.

Esercizio 5.7.4 Risolvere l’esercizio 5.7.3 considerando n = 25 ed n =60 e supponendo invariata la media del campione. Come varia l’ampiezzadell’intervallo?

Esercizio 5.7.5 Volendo stimare il valore atteso di una popolazione con den-sita normale e con varianza incognita, si estrae da essa un campione di pre-fissata numerosita e di esso si calcola la media e la varianza campionariacorretta. Supponiamo che la perdita di peso di n = 16 pezzi di metallo, dopoun certo intervallo di tempo, sia di 3.42 grammi, con una deviazione standardcampionaria S = 0.4624. Costruire un intervallo di confidenza al 99% per ilvalore atteso della perdita di peso dei pezzi di metallo.

Esercizio 5.7.6 Una societa telefonica vuole stimare il tempo medio che in-tercorre fra il momento nel quale sono segnalati i guasti e quello in cui av-viene la riparazione. Si assume che i tempi abbiano densita normale. In uncampione casuale di 16 richieste di assistenza, la media risultata 47 e la de-viazione standard campionaria e risultata S = 12. Si costruisca un intervallodi confidenza al 95%.

Esercizio 5.7.7 Una ditta produttrice di lampadine sostiene che la duratamedia delle lampadine prodotte e di 1600 ore con una deviazione standardσ = 120 ore. Estraendo un campione di 100 lampadine si e calcolata la duratamedia di 1570 ore. Stabilire se l’affermazione del produttore sia correttausando come ipotesi alternativa che la durata sia:

Page 152: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 152

a) inferiore a quella dichiarata;b) diversa da quella dichiarata.Usare in entrambi i casi il livello di significativita α = 0.05 e α = 0.01.

Esercizio 5.7.8 La lunghezza della corda contenuta nei rotoli prodotti dauna macchina ha una distribuzione avente varianza σ2 = 27.4 m2. La dittaproduttrice afferma che µ = 300 m. Viene prelevato un campione di 100rotoli e calcolata la lunghezza media X = 299.2 m. Verificare se il produttoreafferma il vero, oppure se la lunghezza e inferiore, al livello di significativitadell’1%.

Esercizio 5.7.9 La precisione di una macchina che produce componenti didimensioni specificate viene controllata con periodiche verifiche campiona-rie: la dimensione media richiesta e µ = 3.5 mm., con una varianza σ2 =0.2209 mm2.a) Valutare se il processo sia da ritenersi sotto controllo oppure no, quandola media riscontrata su un campione di 100 pezzi e X = 3.42 mm.b) Ripetere la valutazione nel caso che il campione sia di 60 pezzi.Usare in entrambi i casi il livello di significativita α = 0.05 e α = 0.01.

Esercizio 5.7.10 Una prova del carico di rottura di 6 cavi d’acciaio costruitida una ditta ha mostrato un carico di rottura medio X = 7750 kg ed unoscarto quadratico medio S = 145 kg, mentre il costruttore afferma che ilcarico di rottura e µ = 8000 kg. E possibile sostenere l’affermazione delcostruttore ad un livello di significativita del 5% e dell’1%?

Esercizio 5.7.11 Il contenuto dichiarato delle bottiglie di una certa bibitae 330 ml. Scegliendo un campione di 20 bottiglie si riscontra un contenutomedio X = 328 ml ed uno scarto quadratico medio S = 3.2 ml. In base aquesti dati si puo ritenere che la ditta produttrice inganni il consumatore?Si assuma che la quantita di liquido contenuta nelle bottiglie segua appros-simativamente la distribuzione normale e si scelga il livello di significativitadell’1%.

Esercizio 5.7.12 Calcolare il valore del p−value per gli esercizi 5.7.7, 5.7.8e 5.7.9.

Esercizio 5.7.13 Calcolare i coefficienti della retta di regressione che ap-prossima i seguenti valori

Page 153: C:/Users/Tiziano Politi/Dropbox/Didattica 2018 19 ...tiziano19661.interfree.it/pdf1819/probabilita1819.pdf · Capitolo 1 Elementi di Statistica Descrittiva 1.1 Introduzione La statistica

CAPITOLO 5. ELEMENTI DI INFERENZA STATISTICA 153

xi −2 −1 1 2yi −1 0 0 1

Esercizio 5.7.14 Calcolare i coefficienti della retta di regressione che ap-prossima i seguenti valori

xi −3 −1 0 2yi −1 0 1 2

Esercizio 5.7.15 Calcolare i coefficienti della retta di regressione che ap-prossima i seguenti valori

xi −3 −1 2 3yi 3 0 1 4

Esercizio 5.7.16 Calcolare i coefficienti della retta di regressione che ap-prossima i seguenti valori

xi −2 0 2yi 3 1 −1