85
1&2 S.T.I.2

probabilités et statistiques

Embed Size (px)

DESCRIPTION

Outil indispensable pour consolider ses bases en probabilités et/ou statistiques.

Citation preview

Page 1: probabilités et statistiques

1

PRÉFACE

Chance ? Malchance ? Hazard ? L'étude des probabilités et Statistiques, deplus en plus présente dans la formation des élèves et étudiants, tend à donnerune approche pus rationnelle à ces trois notions.

Ce document de cours, divisé en deux parties et dix chapitres, traite laplupart des notions sur ce schéma qui facilite la compréhension : Exempleintroductif - Approche simpliée - Généralisation - Exercice d'application.Ainsi, l'étudiant ayant suivi et compris les cours d'analyse 1&2 au niveau 1y verra un bon complément de travail.

Le Docteur Paul TCHOUA, enseignant à l'Université de Ngaoundéré a dûuser de son expérience et de la connaissance qu'il a des étudiants pour pro-duire, au l d'un travail hargneux, ce document parfaitement adapté à l'étudedes Probabilités et Statistiques. Il appartient maintenant aux étudiants d'enfaire un bon usage.

KAMDOUM David, DAAWORE Jean-JacquesEtudiants en S.T.I.2

Page 2: probabilités et statistiques

2

Page 3: probabilités et statistiques

Table des matières

I PROBABILITÉS 7

1 ANALYSE COMBINATOIRE 91.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . 91.2 CLASSIFICATION D'OBJETS . . . . . . . . . . . . . . . . . 91.3 ARRANGEMENT . . . . . . . . . . . . . . . . . . . . . . . . 101.4 PERMUTATION . . . . . . . . . . . . . . . . . . . . . . . . . 111.5 PERMUTATION AVEC RÉPÉTITION . . . . . . . . . . . . 121.6 COMBINAISON . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.6.1 Combinaison sans répétition . . . . . . . . . . . . . . . 131.6.2 Combinaison avec répétition . . . . . . . . . . . . . . . 14

1.7 FORMULE DU BINÔME DE NEWTON . . . . . . . . . . . 151.7.1 Énoncé . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.7.2 Conséquences . . . . . . . . . . . . . . . . . . . . . . . 15

1.8 ARRANGEMENTS AVEC RÉPÉTITION . . . . . . . . . . . 151.9 PERMUTATION AVEC RÉPÉTITION . . . . . . . . . . . . 16

2 ESPACES PROBABILISÉS 172.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . 172.2 EXEMPLES INTRODUCTIFS . . . . . . . . . . . . . . . . . 172.3 NOTION D'EXPÉRIENCE ALÉATOIRE . . . . . . . . . . . 182.4 ÉVÈNEMENTS ALÉATOIRES . . . . . . . . . . . . . . . . . 182.5 OPÉRATIONS SUR LES ÉVÈNEMENTS . . . . . . . . . . . 19

2.5.1 Évènements contraires . . . . . . . . . . . . . . . . . . 192.5.2 Évènement A et B . . . . . . . . . . . . . . . . . . . . 192.5.3 Évènement A ou B . . . . . . . . . . . . . . . . . . . . 192.5.4 Évènement A∆B . . . . . . . . . . . . . . . . . . . . . 192.5.5 Diérence de deux évènements . . . . . . . . . . . . . . 192.5.6 Évènements incomparables . . . . . . . . . . . . . . . . 202.5.7 Lois de De Morgan . . . . . . . . . . . . . . . . . . . . 20

2.6 NOTION DE PROBABILITÉ . . . . . . . . . . . . . . . . . . 202.6.1 Expérience de Laplace . . . . . . . . . . . . . . . . . . 20

3

Page 4: probabilités et statistiques

4 TABLE DES MATIÈRES

2.6.2 Probabilité relative à une expérience aléatoire . . . . . 202.6.3 Axiomes de probabilité . . . . . . . . . . . . . . . . . . 21

2.7 PROBABILITÉ CONDITIONNELLE . . . . . . . . . . . . . 232.8 ÉVÈNEMENTS INDÉPENDANTS . . . . . . . . . . . . . . . 242.9 FORMULE DE BAYES . . . . . . . . . . . . . . . . . . . . . 24

3 VARIABLES ALÉATOIRES 273.1 VALEURS ALÉATOIRES . . . . . . . . . . . . . . . . . . . . 273.2 LOI DE PROBABILITÉ D'UNE V.A.R. . . . . . . . . . . . . 27

3.2.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . 273.2.2 Cas continu . . . . . . . . . . . . . . . . . . . . . . . . 30

3.3 CARACTÉRISTIQUES DE TENDENCE CENTRALE D'UNEV.A.R. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313.3.1 Espérance mathématique . . . . . . . . . . . . . . . . . 313.3.2 Densité de probabilité d'une fonction de v.a.r. . . . . . 333.3.3 Espérance mathématique d'une fonction de v.a. . . . . 343.3.4 Quantile d'ordre α , Mode , Médiane . . . . . . . . . . 35

4 VARIABLES ALÉATOIRES A DEUX DIMENSIONS 374.1 CAS DISCRET . . . . . . . . . . . . . . . . . . . . . . . . . . 37

4.1.1 Probabilités conditionnelles . . . . . . . . . . . . . . . 384.1.2 Indépendance de couple de variables aléatoires . . . . . 384.1.3 Covariance d'un couple de variables aléatoires . . . . . 394.1.4 Formule de K÷ning . . . . . . . . . . . . . . . . . . . . 39

4.2 CAS CONTINU . . . . . . . . . . . . . . . . . . . . . . . . . . 394.2.1 Loi conjointe . . . . . . . . . . . . . . . . . . . . . . . 394.2.2 Lois marginales . . . . . . . . . . . . . . . . . . . . . . 404.2.3 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . 40

4.3 MOMENT CENTRÉ ET MOMENT NON CENTRÉ . . . . . 414.3.1 Moment centré d'ordre k . . . . . . . . . . . . . . . . . 414.3.2 Moment non centré d'ordre k . . . . . . . . . . . . . . 414.3.3 Relation entre moment centré et moment non centré . 41

4.4 FONCTIONS CARACTÉRISTIQUES ET FONCTIONS GÉ-NÉRATRICES . . . . . . . . . . . . . . . . . . . . . . . . . . 424.4.1 Fonctions caractéristiques . . . . . . . . . . . . . . . . 424.4.2 Fonction génératrice . . . . . . . . . . . . . . . . . . . 42

4.5 COEFFICIENT D'ASSYMÉTRIE ET COEFFICIENT D'APLA-TISSEMENT . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

4.6 DENSITE DE PROBABILITÉ D'UNE FONCTION DE COUPLEDE V.A. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

Page 5: probabilités et statistiques

TABLE DES MATIÈRES 55 MODÈLES PROBABILISTES DISCRETS 47

5.1 VARIABLE DE BERNOULLI . . . . . . . . . . . . . . . . . . 475.2 VARIABLE BINOMIALE . . . . . . . . . . . . . . . . . . . . 485.3 LOI HYPERGÉOMÉTRIQUE . . . . . . . . . . . . . . . . . . 495.4 LOI DE POISSON P (λ), (λ > 0) . . . . . . . . . . . . . . . . 50

6 MODÈLES PROBABILISTES CONTINUS 516.1 LOI UNIFORME SUR [a, b] . . . . . . . . . . . . . . . . . . . 516.2 LOI GAMMA( de paramètre a) . . . . . . . . . . . . . . . . . 526.3 LOI BÊTA( de paramètres a et b) . . . . . . . . . . . . . . . . 526.4 LOIS NORMALES . . . . . . . . . . . . . . . . . . . . . . . . 53

6.4.1 Loi normale centrée-réduite . . . . . . . . . . . . . . . 536.4.2 Loi normale de paramètres (m,σ) (m ∈ R et σ > 0) . . 54

6.5 LOI DE KHI-DEUX (X 2(n), n ∈ N) . . . . . . . . . . . . . . 546.6 LOI DE STUDENT . . . . . . . . . . . . . . . . . . . . . . . 556.7 LOI DE FISHER-SNEDECOR (de paramètres m et n) . . . . 55

7 REGRESSION ET CORRELATION 577.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . 577.2 PRINCIPE DES MOINDRES CARRÉ . . . . . . . . . . . . . 587.3 CORRELATION D'UN COUPLE D'OBSERVATIONS . . . . 587.4 QUELQUES COURBES DE CORRELATION . . . . . . . . . 59

7.4.1 Droite de regression de Y en X . . . . . . . . . . . . . 597.4.2 Droite de regression de X en Y . . . . . . . . . . . . . 617.4.3 Autres types de regression . . . . . . . . . . . . . . . . 61

8 CONVERGENCE EN PROBABILITÉ 638.1 ETUDE DE LA LOI BINOMIALE . . . . . . . . . . . . . . . 63

8.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 638.1.2 Inégalité de Bienaymé TCHEBITCHEFF . . . . . . . . 638.1.3 Dénition de la convergence en probabilité . . . . . . . 65

8.2 CONVERGENCE PRESQUE SÛRE . . . . . . . . . . . . . . 658.3 CONVERGENCE EN LOI . . . . . . . . . . . . . . . . . . . . 668.4 THÉORÈME CENTRAL-LIMITE . . . . . . . . . . . . . . . 66

II STATISTIQUES 67

9 ESTIMATIONS 699.1 MÉTHODES DE SONDAGE . . . . . . . . . . . . . . . . . . 69

9.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 69

Page 6: probabilités et statistiques

6 TABLE DES MATIÈRES

9.1.2 Types de sondages . . . . . . . . . . . . . . . . . . . . 709.1.3 Méthode de sondage aléatoire . . . . . . . . . . . . . . 70

9.2 ESTIMATEUR DE PARAMÈTRES INCONNUS . . . . . . . 709.3 ESTIMATION PONCTUELLE . . . . . . . . . . . . . . . . . 73

9.3.1 Estimateur ponctuel de la moyenne . . . . . . . . . . . 739.3.2 Estimation ponctuelle de la variance . . . . . . . . . . 759.3.3 Estimation par intervalle . . . . . . . . . . . . . . . . . 769.3.4 Quelques cas . . . . . . . . . . . . . . . . . . . . . . . 76

10 TESTS STATISTIQUES 8110.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . 8110.2 TEST CLASSIQUE . . . . . . . . . . . . . . . . . . . . . . . . 81

10.2.1 Test relatif à une fréquence . . . . . . . . . . . . . . . 8110.2.2 Test sur la moyenne . . . . . . . . . . . . . . . . . . . 83

10.3 TEST DE KOLGOMOROV . . . . . . . . . . . . . . . . . . . 85

Page 7: probabilités et statistiques

Première partie

PROBABILITÉS

7

Page 8: probabilités et statistiques
Page 9: probabilités et statistiques

Chapitre 1

ANALYSE COMBINATOIRE

1.1 INTRODUCTIONDans l'étude des phénomènes aléatoires, on se trouve quelques fois confronté

à l'énumération des situations aussi complexes ou simples du phénomène étu-dié. L'étude et le développement des techniques et procédures permettantd'énumérer ces possibilités est appelé analyse combinatoire. Ces tech-niques iront du simple schéma (arbre, graphes) à l'établissement des formulesplus complexes et à certaines situations particulières.

1.2 CLASSIFICATION D'OBJETSDénition 1.2.1. L'ensemble d'objets à étudier peut être formé d'objets dif-férents entre eux ; ils sont alors dits discernables. On les représente par deslettres distinctes (a, b, c, . . .).Dénition 1.2.2. L'ensemble d'objets à étudier peut être formé d'objetsidentiques entre eux ; ils sont alors dits indiscernables. On les représentepar la même lettre (a, a, a, . . .).Exemple 1.1. On dispose de 10 pièces de monnaies dont 3 pièces de 50F , 4pièces de 100F et 3 pièces de 500F .

On notera ces objets de la manière suivante : a, a, a, b, b, b, b, c, c, c qui estun ensemble discernable d'objets indiscernables.Dénition 1.2.3. L'ensemble d'objets à étudier peut être formé d'objets dontcertains sont discernables et d'autres indiscernables (cas de l'exemple précé-dent). On obtient alors un ensemble formé de groupes discernables d'objetsindiscernables.

9

Page 10: probabilités et statistiques

10 CHAPITRE 1. ANALYSE COMBINATOIRE

Exemple 1.2. Une urne contient n boules dont n1 sont rouges et n2 sontnoires. On suppose que les boules sont indiscernables au toucher et que lesboules de même couleur sont identiques.Exercice 1.1. On range p boules dans n cases.

1. Présenter toutes les situations possibles relativement au caractère dis-cernable et indiscernable des boules et des cases.

2. Combien y a-t-il de rangements si :(a) les boules et les cases sont discernables ; chaque case ne pouvant

recevoir qu'une boule ?(b) les boules et les cases sont discernables ; chaque case pouvant re-

cevoir un nombre quelconque de boules.(c) les boules sont indiscernables et les cases sont discernables ; chaque

case ne pouvant recevoir qu'une seule boule ?(d) les boules sont indiscernables et les cases sont discernables ; chaque

case pouvant recevoir un nombre quelconque de boules ?de sorte qu'aucune case ne soit vide.

Dénition 1.2.4. Une disposition d'ojets sera dite ordonnée si deux dispo-sitions dièrent par la nature des objets et l'ordre d'apparition de ces objets.On représentera les dispositions ordonées par des parenthèses.

Une disposition sera dite non ordonnée si l'ordre d'apparition des objetsn'est pas pris en compte.Exemple 1.3.

1. On considère un course de 15 chevaux et on s'intéresse au tiercé gagnantsans ex-æquo.Ici, on a 15 objets discernables. Un résultat est une disposition ordonnéede trois chevaux.

2. Les étudiants de S.T.I.2 sont au nombre de 60 dont 20 lles. Ils décidentde déléguer 5 de leurs camarades assister leur camarade Tchinddébémalade.S'il n'y a pas de précisions supplémentaires, cette délégation sera unedisposition non ordonnée de 5 étudiants.

1.3 ARRANGEMENTDénition 1.3.1. On appelle arrangement (sans répétition) de n objetsdiscernables pris p à p, toute disposition ordonnée de p de ces n objets.

Page 11: probabilités et statistiques

1.4. PERMUTATION 11Exemple 1.4. Considérons une urne contenant n boules numérotées de 1 à n.On suppose que les boules sont indiscernables au toucher. On tire au hasardet sans remise p boules de l'urne.

On obtient ainsi une disposition ordonnée de p de ces n boules. C'est doncun arrangement p à p de ces n boules.Théorème 1.3.1. Le nombre d'arrangements de n objets distincts pris p àp est égale à :

Apn = n(n− 1) . . . (n− p+ 1)

p étant le nombre d'éléments d'une disposition.Démonstration. L'ensemble fondamental comporte n objets distincts, doncE = a1, a2, . . . , an. On veut déterminer le nombre de dispositions ordon-nées pris p à p de ces n éléments.

On procède alors à l'idéalisation suivante : n possibilités pour le choix du premier élément ; (n− 1) possibilités pour le choix du deuxième élément ;

... (n− p+ 1) possibilités pour le choix du pime élément.

On en déduit donc qu'il y a : N = n(n − 1) . . . (n − p + 1) arrangementspossibles de ces n éléments pris p à p.Remarque 1.3.1 (Arrangement et applications injectives).

Prenons E = a1, a2, . . . , an et les positions 1, 2, . . . , p. On a néces-sairement p ≤ n.

On note que le nombre d'arrangements p à p de n objets distincts est égalau nombre d'injections d'un ensemble ni à p éléments dans un ensemble nià n éléments.Exemple 1.5. Déterminer le nombre de tiercés gagnants sans ex-æquo dansune course de 10 chevaux.

Le nombre de tiercé gagnant est N = A310 = 10× 9× 8 = 720 car il s'agit

d'arranger les chevaux 3 à 3 parmi 10.

1.4 PERMUTATIONDénition 1.4.1. On appelle permutation de n objets distincts toutedisposition ordonnée de ces n objets (arrangement n à n de ces n objets).

Page 12: probabilités et statistiques

12 CHAPITRE 1. ANALYSE COMBINATOIRE

Théorème 1.4.1. Le nombre de permutations de n objets distincts est égalà :

Apn = n× (n− 1)× . . .× 2× 1 = n!

Démonstration. Conséquence du théorème précédent avec p = n.Convention et notation :Nous convenons de dire que 0! = 1 et compte

tenu de cette convention, on a donc :Ap

n =n!

(n− p)!

1.5 PERMUTATION AVEC RÉPÉTITIONOn suppose qu'on dispose de n objets formés de r groupes d'objets iden-

tiques ; donc n = α1 + α2 + . . . + αr où le groupe i comporte αi éléments.Le problème consiste à déterminer le nombre de permutations de ces nobjets en tenant compte des groupes d'objets identiques.Exemple 1.6. Déterminons tous les nombres de 5 chires qu'on peut formeravec le nombre 22211.

Solution : La liste exhaustive des permutations est la suivante :22211 2211222121 1221221221 1212221212 1122221122 12221

On vient donc d'écrire toutes les permutations avec répétition des chiresdu nombre 22211.Dénition 1.5.1. Une permutation de n objets distincts dont certains sontidentiques est appelé permutation avec répétition.Théorème 1.5.1. On suppose qu'on dispose de n objets distincts composésde r groupes d'objets identiques. Le groupe i comporte αi élélments tels quen = α1 + α2 + . . . + αr.Le nombre de permutations avec répétition de ces n objets est égal à :

n!

α1!.α2!. . . . .αr!

Page 13: probabilités et statistiques

1.6. COMBINAISON 13Exercice 1.2.

1. Etablir le théorème pour r = 2.Indications : Utiliser des raisonnements analogues à ceux utilisés pourles arrangements et les permutations sans répétition.

2. On dispose de cinq livres sur une étagère, de combien de façons dié-rentes peut-on les disposer ?

3. On dispose de six boules dont trois blanches, deux noires et une grise.De combien de façons peut-on les disposer les unes à la suite des autres ?

Remarque 1.5.1. Le terme anagramme est souvent utilisé pour des permu-tations avec répétition des objets d'un mot donné.

1.6 COMBINAISON1.6.1 Combinaison sans répétition

Exemple 1.7 (Introductif). Une urne contient n boules distinctes. On tire kboules de l'urne les unes après les autres sans remise, sans tenir compte del'ordre de tirage des boules. On choisit donc un sous-ensemble de k boulesde l'urne appelé combinaison de n boules k à k.Dénition 1.6.1. Soit E un ensemble ni ;

On appelle combinaison de p éléments de E, tout sous-ensemble à péléments de E.

Problème

De combien de façon diérentes peut-on tirer k boules de l'urne sansremise en ne tenant pas compte de l'ordre des tirages ?

Résolution

Le problème peut se ramener à celui d'une permutation avec répétition.Numérotons les boules a1, a2, . . . , an. On dénit la fonction Z : E −→ 0, 1.

Pour toute partie A à p éléments de E, on a :

ZA(x) =

1 si x ∈ A0 sinon

(Fonction caractéristique de la partie A de E)

Page 14: probabilités et statistiques

14 CHAPITRE 1. ANALYSE COMBINATOIRE

On dénit ainsi une correspondance biunivoque (bijective) entre l'en-semble des combinaisons p à p d'éléments de E et l'ensemble des Z(A) de laforme (0, 0, 1, . . . , 1, 0)︸ ︷︷ ︸

n positions

.Pour toute autre autre partie B de E à p éléments, Z(A) et Z(B) dièrent

par les positions des 0 et des 1 qui apparaîssent dans le n-uplets.On peut noter clairement que à toute combinaison p à p d'éléments de

E, correspond une et une seule permutation avec répétition des objets 0 et1 ; et réciproquement, à toute permutation avec répétition d'objets 0 et 1, ilcorrespond une et une seule combinaison d'éléments de E.

On établi ainsi une bijection entre les permutations avec répétition d'élé-ments 0 et 1 et les combinaisons p à p d'éléments de E. On en déduit quele nombre de combinaisons p à p est égal au nombre de permutations avecrépétition d'objets 0 et 1.Théorème 1.6.1. Le nombre de combinaisons p à p de n objets distincts estégal à :

Cpn =

n!

p!.(n− p)!

Notation : Le nombre de combinaisons p à p de n objets distincts d'unensemble à n éléments est noté :

Cpn ou

(pn

)Propriétés 1.

1. C0n = 1 et Cn

n = 1 ;2. C1

n = n ;3. Cn−p

n = Cpn, (0 ≤ p ≤ n) ;

4. Cpn + Cp+1

n = Cp+1n+1.

Exercice 1.3. Etablir les résultats de la propriété.

1.6.2 Combinaison avec répétition

On dispose de n boules distinctes, on tire successivement p boules avecremise sans tenir compte de l'ordre des tirages. On obtient une dispositionnon ordonnée de p objets, éventuellement avec répétition. On établit commeau théorème 1.6.1 que le nombre de combinaisons de n objets p à p avecrépétition est égal à :

Cpn+p , n, p ∈ N

Page 15: probabilités et statistiques

1.7. FORMULE DU BINÔME DE NEWTON 15Remarque 1.6.1. Les formules de combinaison et permutation apparaissentdans les développements de la forme (a1 + a2 + . . .+ an)s comme coecientsdes monômes correspondants.

C'est ainsi que les coecients de a2.b3.c dans (a+ b+ c)6 est 6!2!.3!.1!

.

1.7 FORMULE DU BINÔME DE NEWTON1.7.1 Énoncé

(a+ b)n =n∑

i=0

Cina

i.bn−i

1.7.2 Conséquences

1.n∑

p=0

Cpn = 2n;

2.n∑

p=0

Cpn(−1)p = 0

Exercice 1.4.1. Etablir la formule du binôme de Newton par récurrence sur n.2. Etablir ses conséquences.

1.8 ARRANGEMENTS AVEC RÉPÉTITIONExemple 1.8 (introductif). Une urne contient n boules distinctes ; on tiresuccessivement avec remise k de ces n boules. on note à chaque fois le numéroobtenu. On obtient ainsi une suite ordonnée de k boules, avec répétitionéventuellement. Les tirages étant faits avec remise, on a à chaque tirage npossibilités de tirer une boule donnée. On dénit ainsi des arrangements avecrépétition de ces n boules.Dénition 1.8.1. On appelle arrangement avec répétition p à p den objets toute disposition ordonnée de p de ces n objets, avec répétitionéventuellement.

Page 16: probabilités et statistiques

16 CHAPITRE 1. ANALYSE COMBINATOIRE

Théorème 1.8.1. le nombre d'arrangements avec répétition de n objets prisk à k est :

nk k, n ∈ N∗

Exercice 1.5. Etablir ce théoème.Remarque 1.8.1.

1. Considérons l'ensemble I à k éléments et l'ensemble J à n éléments. Lenombre d'applications possibles de I dans J est nk.

2. En utilisant le raisonnement appliqué sur les arrangements avec répéti-tion, on démontre que le cardinal du produit cartésien de p ensemblesnis est égal au produit des cardinaux des ensembles correspondants.

1.9 PERMUTATION AVEC RÉPÉTITIONDénition 1.9.1. Une permutation avec répétition n'est autre chose qu'unarrangement n à n de n objets avec répétition.

Page 17: probabilités et statistiques

Chapitre 2

ESPACES PROBABILISÉS

2.1 INTRODUCTIONLa notion de probabilité est facilement appréhendable par la notion de

degré de vraissemblanse (chance) qu'on rencontre dans la vie de tous lesjours. On introduit pour se faire un ensemble fondamental E des résultatspossibles relatifs à une expérience aléatoire donnée.

2.2 EXEMPLES INTRODUCTIFSExemple 2.1. On jette un dé équilibré dont les faces sont numérotées de 1 à6. On observe le numéro porté par la face supérieure du dé immobilisé. Ondénit ainsi une expérience aléatoire dont les résultats possibles sont contenusdans l'ensemble fondamental Ω = 1, 2, 3, 4, 5, 6.

Le terme "dé équilibré" nous fait savoir que toutes les faces ont la même"chance" d'apparaître. Pour quantier cette notion de même "chance", ondira que chaque face a la probabilité 1

6d'apparaître.

Exemple 2.2. On jette deux dés équilibrés identiques dont les faces sont nu-mérotées de 1 à 6 ; un résultat d'une telle expérience aléatoire est un couple(a, b) tel que :

a ∈ 1, 2, 3, 4, 5, 6 = Ω1

b ∈ 1, 2, 3, 4, 5, 6 = Ω2

L'ensemble fondamental est Ω = Ω1 × Ω2. Card(Ω) = 36. Le degré de vrai-semblance d'apparition d'un couple est la probabilité d'obtenir un couple etvaut 1

36.

Exemple 2.3. On tire p boules distinctes d'une urne qui en contient n.17

Page 18: probabilités et statistiques

18 CHAPITRE 2. ESPACES PROBABILISÉS

1. successivement avec remise ;2. successivement sans remise ;3. simultanément.

On dénit dans chacun de ces cas des expériences aléatoires pour lesquelles onpeut dénir des ensembles fondamentaux et même des notions de probabilité.

2.3 NOTION D'EXPÉRIENCE ALÉATOIREDénition 2.3.1. Une expérience est dite aléatoire si et seulement si :

1. elle peut être répétée dans les mêmes conditions ;2. il existe un nombre ni ou inni d'états que peut prendre la réalisation

de l'expérience aléatoire à chaque occurence ;3. le réalisation de chaque évènement est aléatoire (on ne peut à priori

prévoir le résultat) ;4. il se produit à chaque fois un seul évènement.

2.4 ÉVÈNEMENTS ALÉATOIRESDénition 2.4.1. Etant donnée une expérience aléatoire E, chaque résultatpossible est appelé évènement aléatoire et l'ensemble de tous les résul-tats possibles de l'expérience aléatoire constitue l'ensemble fondamentalou univers des possibles.Exemple 2.4.

1. Le jet d'une pièce de monnaie :Ω = Pile, Face ;

2. Le tirage de p boules succesivement sans remise dans une urne qui encontient n.Dans ce dernier cas, Ω est l'ensemble de tous les arrangements p à p den boules.

CardΩ = Apn

Dénition 2.4.2. On appelle évènement d'une expérience aléatoire, toutepartie de l'univers des possibles.

1. Les évènements singletons sont appelés évènements élémentaires ;2. L'ensemble vide est appelé évènement impossible ;

Page 19: probabilités et statistiques

2.5. OPÉRATIONS SUR LES ÉVÈNEMENTS 193. L'univers lui-même est appelé évènement certain.

Exemple 2.5. Prenons Ω = 1, 2, 3, 4, 5, 6 ;A = 1, 2 est un évènement de l'expérience aléatoire ;B = 3 est un évènement élémentaire ;C = ∅ est l'évènement impossible ;E = Ω est l'évènement certain.

Dénition 2.4.3. Un évènement A d'une expérience aléatoire est dit réalisélors de l'occurence de l'expérience aléatoire si le résultat apporté appartientà A. Dans le cas contraire, il est dit non réalisé.

2.5 OPÉRATIONS SUR LES ÉVÈNEMENTS2.5.1 Évènements contraires

Soit A un évènement de l'expérience aléatoire E d'univers des possiblesΩ ; l'évènement A = AΩ est appelé évènement contraire de A. Il est réalisési et seulement si A n'est pas réalisé.

2.5.2 Évènement A et B

L'évènement A ∩ B est appelé évènement A et B et est réalisé si etseulement si A et B sont réaliés simultanément.

2.5.3 Évènement A ou B

L'évènement A ∪ B est appelé évènement A ou B et est réalisé si etseulement si A est réalié ou B est réalisé ou les deux le sont simultanément.

2.5.4 Évènement A∆B

L'évènement A∆B est réalisé si et seulement si A est réalisé ou B estréalisé, mais pas les deux simultanément.

A∆B = (ArB) ∪ (B r A) = (A ∪B) r (B ∩ A)

2.5.5 Diérence de deux évènements

Soient A et B deux évènements, on note ArB l'évènement qui est réalisési et seulement si A est réalisé et B non réalisé.

Page 20: probabilités et statistiques

20 CHAPITRE 2. ESPACES PROBABILISÉS

Propriétés 2.P1 : Ar A = ∅ ;P2 : Ω r A = A ;P3 : ¯A = A.

2.5.6 Évènements incomparables

Deux évènements A et B sont dits incomparables si et seulement si :A ∩B = ∅

2.5.7 Lois de De Morgan

A ∪B = A ∩ BA ∩B = A ∪ B

2.6 NOTION DE PROBABILITÉ2.6.1 Expérience de Laplace

Dénition 2.6.1. Une expérience aléatoire pour laquelle l'ensemble fonda-mental Ω est ni et telle que tous les évènements élémentaires aient la mêmechance d'occurence est appelée expérience de Laplace.Exemple 2.6.

Jet d'une pièce équilibrée ; Tirage au hazard des boules dans une urne.

2.6.2 Probabilité relative à une expérience aléatoire

Considérons une expérience de Laplace E d'ensemble fondamental Ω avecΩ = w1, w2, . . . , wn. Nous allons quantier le degré de vraisemblance dechaque évènement. Tous les évènements élémentaires ayant le même degré devraisemblance, on pose que la probabilité de chaque évènement élémentaireest égale à 1

CardΩ= 1

n.

Ce nombre est appelé probabilité de l'évènement wi.Nous allons poser :P (A) =

CardA

CardΩ, A ⊆ Ω où

Page 21: probabilités et statistiques

2.6. NOTION DE PROBABILITÉ 21P : P(Ω) −→ R vériant les propriétés :

(i) P (A) > 0;

(ii) 0 6 P (A) 6 1;

(iii) P (Ω) = 1;

(iv) Soient A,B/A ∩B = ∅, alors P (A ∪B) = P (A) + P (B).

2.6.3 Axiomes de probabilité

Etant donné une expérience aléatoire E d'univers des possibles Ω, soit βune famille de parties de Ω vériant :

(i) β 6= ∅;(ii) β est stable pour la réunion nie ;(iii) β est stable pour la diérence ;

β est appelé anneau des parties de Ω.Si de plus, β est stable pour la réunion dénombrable, alors β est appelé

σ-anneau des parties de Ω.Un anneau des parties de Ω contenant Ω est appelé algèbre.Un σ-anneau des parties de Ω contenant Ω est appelé σ-algèbre ou tribu.

Exemple 2.7. On considère l'expérience aléatoire d'ensemble fondamental Ω.Alors, β = P(Ω) est une tribu (σ-algèbre).

Dénition 2.6.2. (Ω, β) est un espace probabilisable si et seulement si βest une tribu des parties de Ω.Dénition 2.6.3. Le triplet (Ω, β, P ) est un espace probabilisé si et seule-ment si :

1. (Ω, β) est un espace probabilisable ;2. P est une application dénit de β dans R vériant les propriétés sui-

vantes :(a) ∀A ∈ β, 0 6 P (A) 6 1 ;(b) P (Ω) = 1 ;(c) Soient A,B/A ∩B = ∅, alors P (A ∪B) = P (A) + P (B).

L'application P est appelée probabilité sur β et pour tout A appartenant àβ, P (A) est appelée probabilité de l'évènement A.

Page 22: probabilités et statistiques

22 CHAPITRE 2. ESPACES PROBABILISÉS

Exemple 2.8 (Loi uniforme ou probabilité de Laplace). Considérons une expé-rience aléatoire de Laplace ayant pour ensemble fondamental Ω = w1, w2, . . . , wn ;prenons comme tribu β = P(Ω).

Considérons l'applicationP : β −→ R

A 7−→ CardA

CardΩ

Le triplet (Ω, β, P ) est un espace probabilisé ni car Ω est ni.Propriétés 3. Considérons (Ω, β, P ) un espace probabilisé, on a :

1. P (∅) = 0 ;2. P (A) = 1− P (A) ;3. P (A ∪B) = P (A) + P (B)− P (A ∩B) ;4. Si A ⊆ B , alors P (A) 6 P (B) ;5. Si Ω est ni avec Ω = w1, w2, . . . , wn;si on pose Pi = P (wi), alors ∑n

i=1 Pi = 1 ;6. Si (Ω, β, P ) est un espace probabilisé ni, alors

∀A ∈ β, P (A) =∑w∈A

P (w)

.Démonstration.

1.∅ ∩ ∅ = ∅∅ ∪ ∅ = ∅

⇒ P (∅ ∪ ∅) = P (∅) + P (∅) = P (∅)

⇒ P (∅) = 0

2.A ∩ A = ∅A ∪ A = Ω

⇒ P (A ∪ A) = P (A) + P (A) = P (Ω) = 1

⇒ P (A) = 1− P (A)

3.A ∪ (B r A) = A ∪BA ∩ (B r A) = ∅

⇒ P (A ∪B) = P (A) + P (B r A)

B = (B r A) ∪ (A ∩B)∅ = (B r A) ∩ (A ∩B)

⇒ P (B) = P (B r A) + P (A ∩B)

d'où P (A ∪B) = P (A) + P (B)− P (A ∩B)

Page 23: probabilités et statistiques

2.7. PROBABILITÉ CONDITIONNELLE 23

2.7 PROBABILITÉ CONDITIONNELLEExemple 2.9 (introductif). Une urne contient trois boules blanches et troisboules noires. on tire au hazard et l'une après l'autre deux boules.

1. Construire l'espace probabilisé associé à cette expérience aléatoire. Onprécisera l'ensemble fondamental, la tribu utilisée et on donnera defaçon explicite la probabilité.

2. Quelle est la probabilité d'avoir une boule blanche au deuxième tirage ?Solution.

1. L'ensemble fondamental Ω est l'ensemble des couples de boules. On adonc :

Card(Ω) = A26 = 6× 5 = 30

β = P(Ω)

Le tirage étant fait au hazard, tous les couples ont la même probabi-lité d'apparaître, on dit ici que tous les évènements élémentaires sontéquiprobables.

P (A) =CardA

CardΩ

On construit ainsi l'espace probabilisé (Ω, β, P ).2. La probabilité cherchée dépend du premier tirage.

Dénition 2.7.1. Soit (Ω, β, P ) un espace probabilisé, soit A un évènementtel que P (A) 6= 0, soit B un évènement quelconque, on note PA(B) ou PB

A(lire probabilité de B sachant A), le réel :PA(B) =

P (A ∩B)

P (A)

Propriétés 4.

1. Si P (A) 6= 0, alors P (A ∩B) = PA(B).P (A).2. De façon générale,

P (A ∩B ∩ C) = P (A).PA(B).PA∩B(C)

Exercice 2.1.On jette deux dés équilibrés identiques et on s'interresse à la somme des

numéros apportés.Quelle est la probabilité d'obtenir la somme 8 sachant que les numéros

apportés sont pairs ?

Page 24: probabilités et statistiques

24 CHAPITRE 2. ESPACES PROBABILISÉS

Exercice 2.2.Dans une urne se trouve six boules dont quatre blanches et deux noires.

On tire successivement sans remise deux boules de l'urne.Quelle est la probabilité d'obtenir des boules blanches dans tous les cas ?

2.8 ÉVÈNEMENTS INDÉPENDANTSDénition 2.8.1. Deux évènements A et B sont dits indépendants si etseulement si :

P (A ∩B) = P (A).P (B)

Conséquence

Si A et B sont indépendants, alors :PA(B) = P (B) et PB(A) = P (A)

La notion d'indépendance est symétrique et on peut la dénir pour un nombrequelconque d'évènements ; on parlera alors d'évènementsmutuellement in-dépendants (2 à 2 indépendants).Dénition 2.8.2. Une suite d'évènements A1, A2, . . . , An est dite collec-tivement exhaustive si et seulement si dans (Ω,P(Ω)) ,

1.Ω =

n⋃i=1

Ai

2.Ai ∩ Aj = ∅; i 6= j

2.9 FORMULE DE BAYESExemple 2.10 (introductif). On considère trois urnes U1, U2, et U3 contenantrespectivement les boules blanches et les boules noires dans les proportionssuivantes :

(2, 1), (2, 2), (1, 2)

Problème : On tire une urne au hazard et on tire de l'urne choisie une boule.1. Quelle est la probabilité de tirer une boule noire ?2. Quelle est la probabilité pour que la boule tirée vienne de l'urne U1 ?

Page 25: probabilités et statistiques

2.9. FORMULE DE BAYES 25Solution.

Soit A l'évènement : " Tirer une boule noire" et Ui l'évènement : " Tirerl'urne Ui".La deuxième question peut être reformulée comme suit : Quelle est laprobabilité de tirer une boule de l'urne U1 sachant que cette bouleest noire ?

Toutes les urnes ont la même chance d'être tirée, on a donc :P (U1) = P (U2) = P (U3) =

1

3

On a également :PU1(A) =

1

3, PU2(A) =

1

2, PU1(A) =

2

3A = (A ∩ U1) ∪ (A ∩ U2) ∪ (A ∩ U3)

PUi(A) =

P (A ∩ Ui)

P (Ui)⇒ P (A ∩ Ui) = PUi

(A).P (Ui)

d'oùP (A) =

3∑i=1

PUi(A).P (Ui)

On en déduit que :PA(U1) =

PU1(A).P (U1)∑3i=1 PUi

(A).P (Ui), Formule de Bayes

Exemple 2.11 (de généralisation). On suppose qu'on dispose de n urnes U1,U2, . . . , Un comportant des boules blanches et des boules noires. On supposeque l'urne Ui a la probabilité πi d'être tirée et on note P (Ui) = πi. Onsuppose également que l'urne Ui a une proportion de pi boules blanches etde qi boules noires.On a donc :

pi + qi = 1 , ∀i etn∑

i=1

πi = 1

Soit A l'évènement : " Tirer une boule noire" et Uj l'évènement : " Tirerl'urne Uj".La formule généralisée de Bayes est la probabilité de Uj sachant A et ellevaut :

PA(Uj) =PUj

(A).P (Uj)∑3i=1 PUi

(A).P (Ui)

Page 26: probabilités et statistiques

26 CHAPITRE 2. ESPACES PROBABILISÉS

Exercice 2.3. Dans une usine de production des boucles d'oreilles, se trouvequatres machines M1, M2, M3 et M4. Les proportions de production de cesmachines sont respectivement 10%, 20%, 30% et 40%. Les proportions depièces défectueuses sont respectivement 2%,1%,4% et 2%.

1. Quelle est la probabilité pour qu'une pièce tirée soit défectueuse ?2. On tire une pièce et on constate qu'elle est défectueuse, quelle est la

probabilité qu'elle provienne de la machine M1.

Page 27: probabilités et statistiques

Chapitre 3

VARIABLES ALÉATOIRES

3.1 VALEURS ALÉATOIRESExemple 3.1.

1. Jet d'un dé équilibré dont les faces sont numérotées de 1 à 6.Les valeurs 1, 2, 3, 4, 5 et 6 sont appelées valeurs aléatoires (résultatsd'une variables aléatoire).

2. L'erreur commise lors de la lecture d'une valeur donnée sur un appareilde mesure.

Dénition 3.1.1. On appelle variable aléatoire réelle (v.a.r.) sur Ω, touteapplication

X : Ω −→ Rw 7−→ X(w)

Si X(Ω) = X(w), w ∈ Ω est ni ou inni dénombrable, la variablealéatoire (v.a.) X est dite discrète .

Une variable aléatoire (v.a.) X est dite continue si X(Ω) contient aumoins un intervalle ouvert non vide.

3.2 LOI DE PROBABILITÉ D'UNE V.A.R.3.2.1 Cas discret

Soit (Ω, β, P ) un espace probabilisé et soit X une variable aléatoire réelle(v.a.r.) telle que X(Ω) = x1, x2, . . . , xn, . . . . X(Ω) est au plus innidénombrable. Supposons X(Ω) ordonné, c'est-à-dire x1 < x2 < . . . < xn <. . .

27

Page 28: probabilités et statistiques

28 CHAPITRE 3. VARIABLES ALÉATOIRES

On a :X−1(R) = w ∈ Ω / X(w) ∈ R = Ω

Notation 1.− X = x = w ∈ Ω / X(w) = x− X < x = w ∈ Ω / X(w) < x− a < X < b = w ∈ Ω / a < X(w) < b

Distribution de la loi de X

Notons Pi, la probabilité P (X = xi) ;Propriétés 5.

1. 0 6 Pi 6 1.2. ∑n

i=1 Pi = 1 (Pour X nie)ou∑∞

i=1 Pi = 1 (Pour X innie dénombrable)3. PX(A) =

∑x∈A Px.

Dénition 3.2.1. PX est appelée loi de probabilité de X ou distributionde probabilité de X.Exemple 3.2.

1.Soit X(Ω) = 0, 1, 2, . . . , n, n ∈ N∗

P (X = i) = Cin.p

i.(1− p)n−i

2.X(Ω) = N, soit λ > 0

P (X = i) = e−λ.λi

i!

Exercice 3.1. Montrer que dans les deux cas de l'exemple précédent, PX estune loi de probabilité de X.

Page 29: probabilités et statistiques

3.2. LOI DE PROBABILITÉ D'UNE V.A.R. 29Diagramme en bâton

Soit X une variable aléatoire réelle (v.a.r.) discrète telle que X(Ω) =x1, x2, . . . , xn, . . . .Posons P (X = xi) = Pi, on a le diagramme en bâton suivant :

Fonction de repartition d'une v.a. discrète

Dénition 3.2.2. Soit X une variable aléatoire réelle (v.a.r.) sur un en-semble ω ; on appelle fonction de répartition de X, l'application :

F : R −→ Rx 7−→ P (X < x)

Soit donc X(Ω) = x1, x2, . . . , xn ; n ∈ N∗

supposons x1 < x2 < . . . < xn ;∗ x 6 x1 ⇒ F (x) = P (X < x) = 0;

∗ x ∈]x1, x2] ⇒ F (x) = P (X < x) = p1;

∗ x ∈]x2, x3] ⇒ F (x) = P (X < x) = p1 + p2;...∗ x ∈]xi, xi+1] ⇒ F (x) = P (X < x) =

i∑j=1

pj; i = 1, 2, . . . , n

∗ x > xn ⇒ F (x) = 1.

Page 30: probabilités et statistiques

30 CHAPITRE 3. VARIABLES ALÉATOIRES

Propriétés 6.

limx→−∞

F (x) = 0 ; limx→+∞

F (x) = 1

limx→x−1

F (x) = 0 = F (x1) ; limx→x−2

F (x) = p1 = F (x2)

F est croissante et discontinue, mais continue à gauche.Propriétés 7.

1. Toute fonction de répartition F est croissante ;2. Toute fonction de répartition F est continue à gauche :

∀a ∈ R, limx→a−

F (x) = F (a)

3. 0 6 F (x) 6 1 ;4. P (a 6 X 6 b) = F (b)− F (a).

3.2.2 Cas continu

Distribution des probabilités d'une v.a. continue

Dénition 3.2.3. On appelle distribution de probabilité d'une v.a. conti-nue X, une fonction f : R −→ R satisfaisant :

1. f(x) > 0, ∀x ∈ R ;2. P (a 6 X 6 b) =

∫ b

af(x)dx ;

3. ∫ +∞−∞ f(x)dx = 1.

f est appelée densité de probabilité de X.Exemple 3.3. Prenons

f(x) =

1 + x si x ∈ [−1, 0]1− x si x ∈ [0, 1]0 sinon

Montrons que f est la densité de probabilité d'une v.a. X.∗ f(x) > 0, ∀x ∈ R

∗∫ +∞

−∞f(x)dx =

∫ −1

−∞f(x)dx+

∫ 0

−1

f(x)dx+

∫ 1

0

f(x)dx+

∫ +∞

1

f(x)dx

=

∫ 0

−1

(1 + x)dx+

∫ 1

0

(1− x)dx = 1

Page 31: probabilités et statistiques

3.3. CARACTÉRISTIQUES DE TENDENCE CENTRALE D'UNE V.A.R.31Exercice 3.2. Soit

f(x) =

e−x si x > 00 sinon

1. Montrer que f est la densité de probabilité d'une v.a. continueX.2. Dénir alors la probabilité relative à un intervalle [a, b].

Fonction de répartition d'une v.a. continue

Dénition 3.2.4. On appelle fonction de répartition de la v.a. X dedensité f , la fonction

F : R −→ R

x 7−→ P (X < x) =

∫ x

−∞f(t)dt

Exercice 3.3. Déterminer les fonctions de répartition des variables aléatoiresde densité de probabilité f dans chacun des cas :

f(x) =

1 + x si x ∈ [−1, 0]1− x si x ∈ [0, 1]0 sinon

et f(x) =

e−x si x > 00 sinon

3.3 CARACTÉRISTIQUES DE TENDENCECENTRALE D'UNE V.A.R.

3.3.1 Espérance mathématique

Cas discret

Dénition 3.3.1. On appelle espérance mathématique d'une v.a.r. dis-crète X par rapport à X(Ω) = x1, x2, . . . , xN , . . . tel que P (X = xi) = Pi,le réel

E(X) =N∑

i=1

xi.Pi où (N ∈ N ou N = +∞)

Exemple 3.4.1. P (X = xi) = 1

6, i = 1, 2, . . . , 6.

E(X) = 1× 1

6+ 2× 1

6+ 3× 1

6+ 4× 1

6+ 5× 1

6+ 6× 1

6=

21

6

Page 32: probabilités et statistiques

32 CHAPITRE 3. VARIABLES ALÉATOIRES

2. Loi de PoissonX suit la loi de probabilité P(λ), λ > 0 ; X(Ω) = N.

E(X) =+∞∑i=0

i.pi

=+∞∑i=0

i.e−λ.λi

i!

= e−λ.

+∞∑i=1

i.λi

i!

= λ.e−λ.

+∞∑i=1

λi−1

(i− 1)!

= λ.e−λ.+∞∑j=0

λj

j!

= λ.e−λ.eλ

= λ

Cas continu

Soit X une v.a. continue de densité f .Dénition 3.3.2. On appelle espérance mathématique de X, le réel , s'ilexiste :

E(X) =

∫ +∞

−∞xf(x)dx

Exemple 3.5. Soit la densité de probabilité d'une v.a. X suivante :f(x) =

e−x si x > 00 sinon

On a : E(X) =∫ +∞−∞ xf(x)dx =

∫ +∞0

xe−xdx = 1

Exercice 3.4. Soit la fonction :Γ(x) =

∫ +∞

0

tx−1e−tdt

Établir que :1. Γ converge pour x > 0 ;

Page 33: probabilités et statistiques

3.3. CARACTÉRISTIQUES DE TENDENCE CENTRALE D'UNE V.A.R.332. Γ(x+ 1) = xΓ(x) ;3. ∀n ∈ N, Γ(n+ 1) = n!

Propriétés 8.

1. L'espérance mathématique d'une v.a. constante est égale à cette mêmevariable aléatoire :

E(a) = a, si X = a

2. Si X et Y sont deux variables aléatoires réelles, soient α, β ∈ R ; alors :E(αX + βY ) = αE(X) + βE(Y )

3.3.2 Densité de probabilité d'une fonction de v.a.r.

Soit ϕ une application :ϕ : R −→ R

x 7−→ ϕ(x)

Soit X une v.a.r. (discrète ou continue) de densité f ; on pose Y = ϕ(X).Y est une nouvelle v.a.r. et on se propose de déterminer la densité de Y .

Fonction de répartition de Y

G(y) = P (Y < y) = P (ϕ(X) < y)

Supposons sans nuire à la généralité que ϕ est bijective ;Alors, G(y) = P (X < ϕ−1(y))

d'où, G(y) = FX(ϕ−1(y))

Supposons que FX (la fonction de répartition de X) est dérivable presquepartout dans R. Sachant que

f(x) =dFX(x)

dxon en déduit la fonction de répartition de Y :

g(y) = F ′X(ϕ−1(y)).(ϕ−1)′(y)

= f(ϕ−1(y)).1

ϕ′ ϕ−1(y)car (ϕ−1)′(y) =

1

ϕ′ ϕ−1(y)

et puisque g(y) est positive, on a :g(y) = f(ϕ−1(y)).

1

|ϕ′(ϕ−1(y))|

Page 34: probabilités et statistiques

34 CHAPITRE 3. VARIABLES ALÉATOIRES

Exemple 3.6 (d'application). Soit la v.a. X de densité de probabilité :f(x) =

e−x xi x > 00 sinon

On donneY = 3X + 9 = ϕ(X)

Déterminons la densité de probabilité de YOn a :

Y = 3X + 9 = ϕ(X) ⇒ ϕ−1(Y ) =Y − 9

3Donc

13e−( y−9

3) si y − 9 > 0 c'est-à-dire y > 9

0 sinonExercice 3.5. Considérons la v.a. X de densité de probabilité :

f(x) =

e−x xi x > 00 sinon

On donneY = X2 = ϕ(X)

Déterminer la densité de probabilité de YRemarque 3.3.1. Les formules de g(Y ) obtenues sous les hypothèses ϕ bijectifet dérivable et FX dérivable restent valablent si la fonction ϕ est bijectivepar intervalle.

3.3.3 Espérance mathématique d'une fonction de v.a.

Soit X une v.a.r. continue ou discrète, soit ϕ : R −→ R une applicationcontinue par morceau telle que :

ϕ : R −→ Rx 7−→ ϕ(x)

On poseY = ϕ(X)

Dénition 3.3.3. On a :E(ϕ(X)) =

∫ +∞

−∞ϕ(x)f(x)dx (cas continu)

E(ϕ(X)) =N∑

i=1

ϕ(xi)Pi (cas discret)

Page 35: probabilités et statistiques

3.3. CARACTÉRISTIQUES DE TENDENCE CENTRALE D'UNE V.A.R.35Cas particulier

Soit X une v.a. de moyenne (espérance mathématique) X = E(X) ; po-sons ϕ(X) = (X − X)2. On a :

E(ϕ(X)) =

∫ +∞

−∞(x− X)2f(x)dx (cas continu)

Dénition 3.3.4. On appelle variance de la v.a. X, le réel, s'il existe :V ar(X) =

∫ +∞

−∞(x− X)2f(x)dx (cas continu)

V ar(X) =N∑

i=1

(xi − X)2Pi (cas discret)

Propriétés 9 (de la variance). Soit X et Y deux v.a.r., soient α, β ∈ R1. V ar(αX) = α2V ar(X) ;2. Si X et Y sont indépendantes, alors :

V ar(αX + βY ) = α2V ar(X) + β2V ar(Y )

3.3.4 Quantile d'ordre α , Mode , Médiane

Soit X une v.a.r. de fonction de répartition F , soit α ∈ [0, 1] ;Dénition 3.3.5. On appelle quantile d'ordre α, la modalité uα telle queF (uα) = α.

Si α = 12, le quantile est appelé médiane.

Quelques quantiles particuliers

On appelle quartile d'ordre k, le quantile dénit par :

F (uk) =k

4avec k = 0, 1, 2 ou 3.

décile d'ordre k, le quantile dénit par :F (uk) =

k

10avec k = 0, 1, 2, . . . , 9.

...

Page 36: probabilités et statistiques

36 CHAPITRE 3. VARIABLES ALÉATOIRES

centile d'ordre k, le quantile dénit par :F (uk) =

k

100avec k = 0, 1, 2, . . . , 100.

Page 37: probabilités et statistiques

Chapitre 4

VARIABLES ALÉATOIRES ADEUX DIMENSIONS

4.1 CAS DISCRETSoient X et Y deux variables aléatoires dénies sur le même univers Ω

telles que :

X(Ω) = x1, x2, . . . , xn ; x1 < x2 < . . . < xn

Y (Ω) = y1, y2, . . . , yn ; y1 < y2 < . . . < yn

et P (X = xi et Y = yi) = Pij

Dénition 4.1.1. Le couple (X, Y ) est appelé couple de variables aléa-toires de loi conjointe Pij avec i = 1, 2, . . . , n et j = 1, 2, . . . ,m (déniecomme si haut).Loi conjointe

XY y1 y2 . . . yj . . . ym Loi marginale de Xx1 P11 P12 . . .P1j . . . P1m P1.

x2 P21 P22 . . .P2j . . . P2m P2.... ... ... ... ... ...xi Pi1 Pi2 . . .Pij . . . Pim Pi.... ... ... ... ... ...xn Pn1 Pn2 . . .Pnj . . . Pnm Pn.Loi marginale de Y P.1 P.2 . . .P.j . . . P.m

37

Page 38: probabilités et statistiques

38 CHAPITRE 4. VARIABLES ALÉATOIRES A DEUX DIMENSIONS

On a :Pi. =

m∑j=1

Pij et P.j =n∑

i=1

Pij

Pi. = P (X = xi) indépendament de YP.j = P (Y = yi) indépendament de X

Propriétés 10.

1. 0 6 Pij 6 1 ;2. ∑n

i=1

∑mj=1 Pij = 1 ;

3. ∑ni=1 Pi. = 1 et ∑m

j=1 P.j = 1.

4.1.1 Probabilités conditionnelles

Probabilité de Y sachant xi

On va noter Z = Y/xila variable aléatoire de Y sachant xi et on aura :

P (Z = yj) = P (Y = yi/X=xi) =

Pij

Pi.

Probabilité de X sachant yj

On va noter W = X/Yjla variable aléatoire de X sachant yj et, de mêmeque précédemment, on aura :

P (W = xi) = P (X = xi/Y =yj) =

Pij

P.j

4.1.2 Indépendance de couple de variables aléatoires

Dénition 4.1.2. Les variables aléatoires X et Y sont dites indépendantessi et seulement si :

P (X/Y ) = P (X) et P (Y/X) = P (Y )

ConséquenceSi X et Y sont deux variables indépendantes, alors :

Pij = Pi. × P.j

Remarque 4.1.1.Pij = Pi. × Pj/i

Page 39: probabilités et statistiques

4.2. CAS CONTINU 394.1.3 Covariance d'un couple de variables aléatoires

Dénition 4.1.3. Soient (X, Y ) un couple de variables aléatoires de loiconjointe pij. On appelle covariance du couple (X, Y ), le nombre :

cov(X, Y ) = E[(X − X).(Y − Y )]

ce qui donne :cov(X, Y ) =

n∑i=1

m∑j=1

(xi − X).(yj − Y ).Pij

4.1.4 Formule de K÷ning

On aE(X, Y ) =

n∑i=1

m∑j=1

xi.yj.Pij

d'où on déduit la formule de K÷ning :cov(X, Y ) = E(X.Y )− E(X).E(Y )

Conséquence

1. Si X et Y sont indépendantes, alorsE(X.Y ) = E(X).E(Y )

2. Si X et Y sont indépendantes, alors Cov(X, Y ) = 0. Mais la réciproquen'est pas vraie ;

3. V ar(X) = Cov(X,X) = E(X2)− (E(X))2.

4.2 CAS CONTINU4.2.1 Loi conjointe

Soient X et Y deux variables aléatoires continues sur le même univers Ω.

P (x < X < x+ dx , y < Y < y + dy) = f(x, y)dxdy

Page 40: probabilités et statistiques

40 CHAPITRE 4. VARIABLES ALÉATOIRES A DEUX DIMENSIONS

1. La fonction f est Riemann intégrable ;2. f(x, y) > 0 ;3. ∫ ∫R2 f(x, y)dxdy = 1.f(x, y) est appelée densité conjointe du couple (X,Y ).

4.2.2 Lois marginales

Loi marginale de X

Dénition 4.2.1.

fX(x) =

∫ +∞

−∞f(x, y)dy

Loi marginale de Y

Dénition 4.2.2.

fY (y) =

∫ +∞

−∞f(x, y)dx

4.2.3 Lois conditionnelles

Loi de X sachant Y

fX/Y(x) =

f(x,y)fY (y)

si fY (y) 6= 0

0 sinonLoi de Y sachant X

fY/X(y) =

f(x,y)fX(x)

si fX(x) 6= 0

0 sinonPropriétés 11 (générales de la variance).

Soient X et Y deux variables aléatoires réelles, α, β ∈ R ;1. V ar(X) =

∫ +∞−∞ (x− X)2f(x)dx ;

2. V ar(αX + βY ) = α2V ar(X) + β2V ar(Y ) + 2αβCov(X, Y ) ;3. Formule de K÷ning : V ar(X) = E(X2)− [E(X)]2.

Page 41: probabilités et statistiques

4.3. MOMENT CENTRÉ ET MOMENT NON CENTRÉ 41

4.3 MOMENT CENTRÉ ET MOMENT NONCENTRÉ

4.3.1 Moment centré d'ordre k

Dénition 4.3.1. Soit X une variable aléatoire ; on appellemoment centréd'ordre k de X noté Mk, le nombre s'il existe :

Mk = E[(X − X)k] , k ∈ N

Propriétés 12.

1. M1 = 0 ;2. M2 = V ar(X).

4.3.2 Moment non centré d'ordre k

Dénition 4.3.2. Soit X une variable aléatoire ; on appelle moment noncentré d'ordre k de X noté µk, le nombre :

µk = E(Xk) , k ∈ N

4.3.3 Relation entre moment centré et moment non cen-tré

Mk = E[(X − X)k] , k ∈ N

= E[k∑

p=0

Cpk.(−1)p.Xp.Xk−p]

=k∑

p=0

Cpk.(−1)p.Xp.E[Xk−p] d'où

Mk =k∑

p=0

Cpk.(−1)p.Xp.µk−p

Page 42: probabilités et statistiques

42 CHAPITRE 4. VARIABLES ALÉATOIRES A DEUX DIMENSIONS

4.4 FONCTIONS CARACTÉRISTIQUES ETFONCTIONS GÉNÉRATRICES

4.4.1 Fonctions caractéristiques

Dénition 4.4.1. On appelle fonction caractéristique de la variable aléa-toire réelle ou constante X, la fonction :

g : R −→ Rt 7−→ E(etX)

Cas où X est continue de densité f

g(t) =

∫ +∞

−∞f(x)etxdx

Cas où X est discret de loi de probabilité P

g(t) =N∑

i=0

etxiPi (N ni ou inni)

Propriétés 13.

1. g(0) = 1 ;2. g′(t)|t=0 =

∫ +∞−∞ xf(x)dx = E(X) ;

3. g′′(t)|t=0 =∫ +∞−∞ x2f(x)dx = E(X2) d'où

dkg(X)

dX= E(Xk)

4.4.2 Fonction génératrice

Dénition 4.4.2. On appelle fonction génératrice de la variable aléatoireréelle ou constante X, la fonction :

φ : R −→ Ru 7−→ E(eiuX)

Page 43: probabilités et statistiques

4.5. COEFFICIENT D'ASSYMÉTRIE ET COEFFICIENT D'APLATISSEMENT43Remarque 4.4.1. On dénit la fonction génératrice par φX(u) = E(uX), u >0. En eet :

uX = eX ln(u)

= evX en posant v = ln(u) doncφ(u) = E(euiX)

= E[(eiu)]X

= E(vX) en posant v = eiu

Exercice 4.1. On considère la variable aléatoire X suivant la loi de Gauss dedensité :

f(x) =1√2πe−

x2

2 , x ∈ R

1. Déterminer les fonctions caractéristique et génératrice de X ;2. En déduire tous les moments centrés et non centrés de X.

Exercice 4.2. Mêmes questions que prédémment pour les variables aléatoiresY et Z ayant respectivement les densités :

1. f(x) =

e−x si x > 0

0 sinon2. P (X = n) = e−λ.λ

n

n!, n ∈ N (Loi de poisson)

4.5 COEFFICIENT D'ASSYMÉTRIE ET CO-EFFICIENT D'APLATISSEMENT

Dénition 4.5.1. On appelle coecient d'assymétrie d'une variable aléa-toire X admettant une moyenne nie E(X) et un écart-type ni σX =√var(X), le réel :

γ1 =E[(X − E(X))3]

σ3X

Dénition 4.5.2. On appelle coecient d'aplatissement d'une variablealéatoire X admettant une moyenne nie E(X) et un écart-type ni σX , leréel :

γ2 =E[(X − E(X))4]

σ4X

− 3

Page 44: probabilités et statistiques

44 CHAPITRE 4. VARIABLES ALÉATOIRES A DEUX DIMENSIONS

Les coecients d'assymétrie et d'aplatissement permettent d'évaluer lesdegrés de symétrie et d'aplatissement d'une distribution. D'autres coecientsdénissent le degré d'élement.Propriétés 14.

1. γ1 = 0 si X est symétrique par rapport à la normale. Mais, la réciproquen'est pas vraie.

2. Si γ1 > 0, la distribution est plus étalée vers la droite. Si γ1 < 0, ladistribution est plus étalée vers la gauche.

3. γ2 = 0 si la distribution est normale (La condition γ2 = 0 est unecondition nécessaire mais pas susante de normalité, car on peut avoirγ2 = 0 pour une distribution qui n'est pas normale.)

4.6 DENSITE DE PROBABILITÉ D'UNE FONC-TION DE COUPLE DE V.A.

Soit (X, Y ) un couple de variables aléatoires réelles de densité conjointef(x, y). On pose :

Z1 = φ1(X, Y )

Z2 = φ2(X, Y )

On a la transformation réciproque suivante :X = ψ1(Z1, Z2)

Y = ψ2(Z1, Z2)

La densité conjointe de (Z1, Z2) est donnée par :g(z1, z2)dz1dz2 = f(x, y)|dx.dy|

= f(x, y)

∣∣∣∣∣∣γxγz1

γxγz2

γyγz1

γyγz2

∣∣∣∣∣∣ dz1.dz2

d'où on déduit :

g(z1, z2) = f(ψ1(z1, z2), ψ2(z1, z2))

∥∥∥∥∥∥γxγz1

γxγz2

γyγz1

γyγz2

∥∥∥∥∥∥ dz1.dz2

Les lois de Z1 et Z2 sont obtenues comme lois marginales de (Z1, Z2).

Page 45: probabilités et statistiques

4.6. DENSITE DE PROBABILITÉ D'UNE FONCTION DE COUPLE DE V.A.45Application

On dénit la densité d'un couple de variable aléatoire (X, Y ) par :

f(x, y) =

(y − x)e−(y−x) pour 0 6 x 6 1 et x 6 y

0 sinonDéterminons la densité g de la variable aléatoire Z1 = X + Y .

Etant donné qu'on a qu'une seule fonction, il faut donc la compléter parune fonction qui soit bijective pour obtenir un couple de variable aléatoire.Prenons par exemple Z2 = Y . On a :∣∣∣∣∣∣

γxγz1

γxγz2

γyγz1

γyγz2

∣∣∣∣∣∣ =1

Joù J est le jacobien

On a également :Y = Z2 = ψ2(Z1, Z2) et X = Z1 − Z2 = ψ1(Z1, Z2)

g(Z1, Z2) = f(Z1 − Z2, Z2)

gZ1(x) =

∫ +∞

−∞g(Z1, Z2)dZ2

Page 46: probabilités et statistiques

46 CHAPITRE 4. VARIABLES ALÉATOIRES A DEUX DIMENSIONS

Page 47: probabilités et statistiques

Chapitre 5

MODÈLES PROBABILISTESDISCRETS

5.1 VARIABLE DE BERNOULLIDénition 5.1.1. Une variable aléatoire dont l'ensemble des valeurs est ré-duite à deux éventualités est appelée variable de Bernoulli.Exemple 5.1.

1. Jet d'une pièce de monnaie : Ω = Pile, Face ;2. Considérons ξ, une expérience aléatoire quelconque d'espace probabilisé

associé (Ω, β, P ) ;Soit A un évènement, on construit la variable aléatoire X de la façonsuivante :

X(w) =

1 si A esr réalisé0 sinon

X(Ω) = 0, 1 est une variable de Bernoulli

Formalisation d'une variable de Bernoulli

La variable de Bernoulli sera assimilée à la variable X qui prend la valeur1 avec un p et la valeur 0 avec un q.

On notera que X suit la probabilité P .X = 1 est appelé succès et X = 0 est appelé échec.E(X) = p, V ar(X) = E(X2)− [E(X)]2 = pq et σX =

√pq.

47

Page 48: probabilités et statistiques

48 CHAPITRE 5. MODÈLES PROBABILISTES DISCRETS

5.2 VARIABLE BINOMIALESoit E une expérience aléatoire, soient (Ω, β, P ) l'espace probabilisé as-

socié et A un évènement de probabilité p. On répète n fois l'épreuve E dansles mêmes conditions ; on note X la variable aléatoire qui associe le nombrede réalisation de A.

Valeur de X(Ω)

X(Ω) = 0, 1, . . . , n

Loi de X

Notons P (X = i), la probabilité de i réalisations de A ; X = 0 ⇒ A n'est pas réalisé ;P (X = 0) = (1− p)n = qn

X = 1 ⇒ A est réalisé une fois ;P (X = 1) = np(1− p)n−1

X = i⇒ A est réalisé i fois ;P (X = i) = Ci

npi.qn−i

On dira que X suit la loi binomiale de paramètres n et p (B(n, p)).Exercice 5.1.

1. Démontrer que la probabilité qu'il y ait i succès est Cinp

i.qn−i pour népreuves ;

2. Tracer le diagramme en bâton de la loi binomiale pour : n = 6 et p = 0, 1 ; n = 6 et p = 0, 5 ; n = 6 et p = 0, 7 ; n = 6 et p = 0, 9 ;Evaluer pour chaque cas, les coecients d'asymétrie et d'aplatissement.

Propriétés 15. On suppose que X B(n, p) (X suit la loi binomiale deparamètres n et p).

1. L'espérance mathématique de la loi binomiale est : E(X) = np ;2. V ar(X) = npq et σX =

√npq ;

3. Mode de X

Page 49: probabilités et statistiques

5.3. LOI HYPERGÉOMÉTRIQUE 49Supposons que le mode de X est égal à x ; alors :

Px = P (X = x) = Cxnp

x.qn−x

Px+1

Px

=n− x

x+ 1.p

q< 1

et Px

Px−1

=n− x+ 1

x.p

q> 1

En résolvant ces deux inégalités, on a :np− q < x < np+ p

Si np− q et np+p ne sont pas des entiers, alors le mode est l'uniqueentier entre np− q et np+ p.

Si np− q est entier, alors np+ p est entier et, np− q et np+ p sontles deux valeurs modales de la distribution binomiale.

4.gX(u) = (q + peu)n (Fonction génératrice)

φX(u) = (q + peiu)n (Fonction caractéristique)Exercice 5.2. Etablir ces résultats.

5.3 LOI HYPERGÉOMÉTRIQUELa loi binomiale correspond à un tirage avec remise (on travaille dans les

mêmes conditions). Le cas de tirage sans remise correspond à une variableappelée variable hypergéométrique.

Construction d'une variable hypergéométrique

On considère une urne contenant M boules blanches et (N −M) boulesnoires. On tire successivement n boules de l'urne sans remise. Soit X lavariable aléatoire qui associe le nombre de boules blanches parmi les n tirées.

Proportion de boules blanches : p = MN.

On note X B(N,M, n) et on lit X suit la loi hypergéométriquede paramètres N, M et n.

X(Ω) = 0, 1, . . . , n

Page 50: probabilités et statistiques

50 CHAPITRE 5. MODÈLES PROBABILISTES DISCRETS

Théorème 5.3.1 (Loi de X).

P (X = x) =Cx

M .Cn−xN−M

CnN

Propriétés 16.

1. Moyenne : E(X) = np = n.MN;

2. Variance : V ar(X) = N−nN−1

.npq.Exercice 5.3. Etudier le mode de cette distribution.

5.4 LOI DE POISSON P (λ), (λ > 0)Dénition 5.4.1. C'est une variable aléatoire caractérisée par X(Ω) = N.Elle a pour loi :

P (X = i) = eλ.λi

i!

Propriétés 17.

1. Moyenne : E(X) = λ ;2. Variance : V ar(X) = λ.

Exercice 5.4.1. Calculer les coecients d'assymétrie et d'aplatissement de la loi de

Poisson ;2. En utilisant la technique des quotients, déterminer les modes de la loi

de Poisson.

Page 51: probabilités et statistiques

Chapitre 6

MODÈLES PROBABILISTESCONTINUS

6.1 LOI UNIFORME SUR [a, b]

Dénition 6.1.1. On appelle loi uniforme sur [a, b], a < b, la loi de densitéde probabilité f dénie par :

f(x) =

1

b−asi x ∈ [a, b]

0 sinon

Propriétés 18.

1. E(X) =∫ b

ax

b−a.dx = a+b

2;

2. V ar(X) = E(X2)− [E(X)]2 = (a−b)2

12;

3. Fonction de répartition :

F (x) = 0 si x 6 a ;

F (x) =

∫ x

a

1

b− adt =

x− a

b− asi x ∈ [b, a] ;

F (x) = 1 si x > b .

51

Page 52: probabilités et statistiques

52 CHAPITRE 6. MODÈLES PROBABILISTES CONTINUS

6.2 LOI GAMMA( de paramètre a)Dénition 6.2.1. On appelle loi gamma de paramètre a (a < 0), la loi dedensité de probabilité f dénie par :

fa(x) =

1

Γ(a).ex.xa−1 si x > 0

0 sinonRappels

Γ(a) =∫ +∞

0xa−1.e−xdx ;

Γ(a+ 1) = a.Γ(a) ; Γ(n+ 1) = n! si n ∈ N.

Propriétés 19.

1. E(X) = 1Γ(a)

.∫ +∞

0xa.e−xdx = Γ(a+1)

Γ(a)= a ;

2. V ar(X) = E(X2)− [E(X)]2 = a ;Exercice 6.1.

1. Evaluer les moments d'ordre r de Γ ;2. Déterminer les fonctions caractéristiques et génératrices de la loi Γ.

6.3 LOI BÊTA( de paramètres a et b)Dénition 6.3.1. Une variable aléatoire X suit la loi Bêta de paramètresa et b (X β(a, b)) si elle admet pour densité de probabilité la fonction fdénie par :

fa(x) =

1

β(a,b).xa−1.(1− x)b−1, si x ∈ [0, 1]

0 sinonRappels

β(a, b) =

∫ 1

0

xa−1.(1− x)b−1dx

Propriétés 20.

1. E(X) = aa+b

;

Page 53: probabilités et statistiques

6.4. LOIS NORMALES 532. V ar(X) = E(X2)− [E(X)]2 = a.b

(a+b)2.(a+b+1);

Exercice 6.2. Montrer que :

β(a, b) =Γ(a).Γ(b)

Γ(a+ b)

6.4 LOIS NORMALES6.4.1 Loi normale centrée-réduite

Rappel

On dit qu'une variable aléatoire est centrée si et seulement si E(X) = 0.Elle sera dite réduite si et seulement si V ar(X) = 1.Dénition 6.4.1. On appelle variable aléatoire centrée-réduite, la va-riable X de densité f dénie par :

f(x) =1√2π.e−

x2

2 , x ∈ R

Notation

On note X N (0, 1) pour signier que X suit la loi normale centrée-réduite aussi appelée loi de Laplace-Gauss.

Représentation de la distribution de probabilité

Propriétés 21. Soit Π, la fonction de répartition de la loi normale centrée-réduite.

1. Π(0) = 0, 5 ;2. Π(−∞) = 0 et Π(+∞) = 1 ;3. Π(−x) = 1− Π(x) ;4. P (|X| < u) = P (−u < X < u) = Π(u)− Π(−u) = 2.Π(u)− 1 ;5. E(X) = 0 et V ar(X) = 1 ;6. Fonction caractéristique :

ϕ(t) = e−t2

2

Page 54: probabilités et statistiques

54 CHAPITRE 6. MODÈLES PROBABILISTES CONTINUS

6.4.2 Loi normale de paramètres (m,σ) (m ∈ R et σ > 0)

Elle est dénie par :

f(x) =1√2π.σ

.e[−12.(x−m)2

σ] , x ∈ R

Propriétés 22.

1. Si U N(0, 1),∀a, b ∈ R , X = aU + b N (b, |a|)

2.Y = σU +m N (m,σ)

6.5 LOI DE KHI-DEUX (X 2(n), n ∈ N)

Dénition 6.5.1. Soient n variables aléatoires normales centrées-réduitesindépendantes deux à deux, la variable Z = X2

1 +X22 + . . . +X2

n suit la loide Khi-deux à n degrés de liberté (Z X 2(n)).

En utilisant la théorie générale des variables aléatoires à plusieurs dimen-sions, on trouve que la loi du Khi-deux est donnée par la fonction f déniepar :

fX 2(n)(x) =

1

2n2 .Γ(n

2).x

n−12 .e−

x2 si x > 0

0 sinon

Formes de distributions de la loi du X 2(n)

Propriétés 23.

1. E(X 2(n)) = n ;2. V ar(X 2(n)) = 2n.

Remarque 6.5.1. n désigne en général le nombre d'observations indépendanteseectuées (degrés de liberté).Exercice 6.3. Retrouver les formules de la moyenne et de la variance d'unevariable aléatoire X suivant la loi du Khi-deux à n degrés de liberté.

Page 55: probabilités et statistiques

6.6. LOI DE STUDENT 556.6 LOI DE STUDENT

Soient U une variable aléatoire suivant la loi normale centrée-réduite etX une variable aléatoire suivant la loi du Khi-deux à n degrés de liberté tellesque U et X soient indépendantes. Alors, la variable T = U

X2(n)n

suit la loi deStudent à n degrés de liberté (T t(n)).

6.7 LOI DE FISHER-SNEDECOR (de para-mètres m et n)

Soient X et Y deux variables aléatoires suivant la loi du Khi-deux respec-tivement à n et à m degrés de liberté telles que X et Y soient indépendantes ;alors la variable

F =XnYm

suit la loi de Fisher-Snedecor à n−m degrés de libertés (F F(m,n)).Exercice 6.4 (Travaux pratiques). Photocopier les tables de Gauss, de Student,de Fisher et apprendre à lire.

Page 56: probabilités et statistiques

56 CHAPITRE 6. MODÈLES PROBABILISTES CONTINUS

Page 57: probabilités et statistiques

Chapitre 7

REGRESSION ETCORRELATION

7.1 INTRODUCTIONOn considère un couple de variables aléatoires (X, Y ). On suppose que

les valeurs x et y ont été mesurées sur un échantillon (des observationsconcrètes). On se propose de déterminer un modéle fonctionel permettantde prédire les valeurs de y sachant celles de x. On cherche alors une relationde la forme Y = φ(X) : on parle de liaison fonctionnelle. Le problèmeconsiste à choisir φ de façon optimale suivant un certain nombre de critères.La méthode utilisée (que nous utiliserons) est la méthode des moindrescarrés qui consiste à choisir φ de sorte que l'erreur quadratique soit mini-male.Exemple 7.1. On a relevé les données suivantes sur une population donnéepar le couple de variables aléatoires (X, Y ) (pouvant être le poids et la taillepar exemple).

Erreur quadratique E

e1 = |y1 − φ(x1)| : Ecarte2 = |y2 − φ(x2)| : Ecartei = |yi − φ(xi)| : Ecarten = |yn − φ(xn)| : Ecart

57

Page 58: probabilités et statistiques

58 CHAPITRE 7. REGRESSION ET CORRELATION

on en déduit l'erreur quadratique suivante :

E =

√√√√ n∑i=1

(yi − φ(xi))2 =√e21 + e22 + . . . + e2n

7.2 PRINCIPE DES MOINDRES CARRÉOn considère une série d'observations (x1, y1), (x2, y2), . . . , (xn, yn) pour

laquelle on cherche la liaison fonctionnelle Y = φ(X). Le principe des moindrescarrés consiste à choisir φ de sorte que l'erreur quadratiqueE =

√∑ni=1(yi − φ(xi))2

soit minimale. L'analyse est faite en utilisant la théorie d'optimisation desfonctions de plusieurs variables.

Rappel

Soit S = S(x1, x2, . . . , xn) une fonction susamment régulière sur undomaine D. S est minimale en un point critique qui est tel que :

dS

dxi

= 0 , i = 1, 2, . . . , n

7.3 CORRELATION D'UN COUPLE D'OB-SERVATIONS

Soient (x1, y1), (x2, y2), . . . , (xn, yn) n observations indépendantes d'uncouple de variables aléatoires.

Variables Valeurs MoyennesX x1 x2 . . . xi . . . xn X = 1

n.∑n

i=1 xi

Y y1 y2 . . . yi . . . yn Y = 1n.∑n

i=1 yi

Le coecient de correlation mesure le degré de correlation (liaison) quiexiste entre les variables X et Y . Ce coecient est compris entre −1 et 1.

Si |r| est proche de 1, il y a forte correlation ; Si |r| est proche de 0, il y a faible correlation.

Page 59: probabilités et statistiques

7.4. QUELQUES COURBES DE CORRELATION 59Covariance empirique

δXY =1

n− 1.

n∑i=1

(xi − X)(yi − Y )

Variances empiriques

δ2X =

1

n− 1.

n∑i=1

(xi − X)2

δ2Y =

1

n− 1.

n∑i=1

(yi − Y )2

N.B. : On en déduit les écart-types empiriques :

δX =√δ2X et δY =

√δ2Y

Coecient de correlation empirique

r =δXY

δX .δY

7.4 QUELQUES COURBES DE CORRELA-TION

7.4.1 Droite de regression de Y en X

On a relevé (x1, y1), (x2, y2), . . . , (xn, yn), n observations. On cherche unerelation fonctionnelle de la forme : Y = aX + b = φ(X) de sorte que l'erreurquadratique E2 =

∑ni=1(yi − a.xi − b)2 soit minimale.

Page 60: probabilités et statistiques

60 CHAPITRE 7. REGRESSION ET CORRELATION

Détermination des coecients a et b

Les coecients a et b sont déterminés grâce aux critères d'optimisationdénis plus haut.

dE2

da= 0 ⇔ −2.

n∑i=1

xi(yi − a.xi − b) = 0 (1)

dE2

db= 0 ⇔ −2.

n∑i=1

(yi − a.xi − b) = 0 (2)

(1) ⇒ a.1

n.

n∑i=1

x2i + b.

1

n.

n∑i=1

xi =1

n.

n∑i=1

xi.yi

(2) ⇒ a.1

n.

n∑i=1

xi + n.1

n.b =

1

n.

n∑i=1

yi

et on a le système :

a.E(X2) + b.E(X) = E(X, Y )

a.E(X) + b = E(Y )⇒ a(E(X2)− (E(X))2)︸ ︷︷ ︸

V ar(X)

= E(X, Y )− E(X).E(Y )︸ ︷︷ ︸Cov(X,Y )

⇒ a =Cov(X, Y )

V ar(X)

et on en déduitb = E(Y )− a.E(X)

Remarque 7.4.1.a =

Cov(X, Y )

V ar(X)

=Cov(X, Y )

V ar(X).σY

σy

=σY

σX

.r

Donca =

σY

σX

.r

d'où la relation fonctionnelle :Y =

σY

σX

.r.X + E(Y )− σY

σX

.r.E(X)

Page 61: probabilités et statistiques

7.4. QUELQUES COURBES DE CORRELATION 617.4.2 Droite de regression de X en Y

Soit à déterminer la relation fonctionnelle X = α.Y + β. On peut recher-cher les coecients α et β comme précédemment. Mais une méthode plusrapide est la suivante :

X = α.Y + β ⇒ X = α.Y + β

⇒ X.Y = α.Y 2 + βY (1)

X = α.Y + β ⇒ X.Y = α.Y 2 + β.Y

⇒ E(X.Y ) = α.E(Y 2) + β.E(Y ) (2)

En soustrayant (1) à (2), on en déduit :

α =Cov(X, Y )

V ar(Y )et β = X − α.Y

et on obtient comme précédemment la relation suivante :α =

σX

σY

.r

7.4.3 Autres types de regression

Approximation pôlygonale

On suppose qu'on a fait n observations sur un couple de variables aléa-toires (X, Y ). Des analyses à priori ont préssenti une relation fonctionnellede la forme :

Y = a.X2 + b.X + c

Il est donc question de déterminer les coecients a, b, c à l'aide de la méthodedes moindres carrés ( ou en suivant la méthode précédente).

Approximation par un pôlynome de degré n

On utilise les mêmes formalismes que précédemment.

Relation de la forme Y = α.Xβ (x > 0, α > 0)

Pour ce cas, on transforme la relation non linéaire en une relation linéaireet on applique les techniques des droites de regression. La transformation sefait de la manière suivante :

Y = α.Xβ ⇒ ln(Y ) = ln(α) + β ln(X)

Page 62: probabilités et statistiques

62 CHAPITRE 7. REGRESSION ET CORRELATION

Posons Y ′ = ln(Y ), a = ln(α), b = β et X ′ = ln(X). On obtient la relation :Y ′ = a+ b.X ′

En appliquant la technique de la droite de regression, on détermine a et b eton en déduit α et β.Relation de la forme Y = α.βX (X > 0, Y > 0, α > 0)

On utilise les mêmes transformations et le même formalisme que précé-demment.

Page 63: probabilités et statistiques

Chapitre 8

CONVERGENCE ENPROBABILITÉ

8.1 ETUDE DE LA LOI BINOMIALE8.1.1 Introduction

Soit E une épreuve dont les éventualités constituent l'ensemble fondamen-tal Ω. Soit A un évènement dont la probabilité de réalisation est p. Soit (En),l'épreuve consistant en la réalisation successive de l'épreuve E n fois de façonindépendante.

L'ensemble fondamental dans ce cas est E = Ωn.Associons les n variables aléatoires qui ont conduit à la réalisation de

(En). Posons :Zn = B(n, p).

1

nqui représente la moyenne de réalisation de l'évènement A au cour de népreuves. On a :

E(Zn) = p

V ar(Zn) =pq

n

8.1.2 Inégalité de Bienaymé TCHEBITCHEFF

Soit g une fonction dénie sur l'ensemble X à valeurs dans R+, soit Xune variable aléatoire sur X telle que E[(g(X))k], k ∈ N existe.Lemme 8.1.1.

∀t > 0 , P (g(X) > t) 6E[(g(X))k]

tk

63

Page 64: probabilités et statistiques

64 CHAPITRE 8. CONVERGENCE EN PROBABILITÉ

Pour g(x) = |x− X| et k = 2, on a :

P (|X − X| > t) 6E[|X − X|2]

t2=V ar(X)

t2

Démonstration. Soit f , la densité de probabilité de X, soit k ∈ N.E[(g(X))k] =

∫X(g(x))k.f(x)dx

posons donc :X1 = x ∈ X /g(x) 6 tX2 = x ∈ X /g(x) > t

E[(g(X))k] =

∫X1

(g(x))k.f(x)dx+

∫X2

(g(x))k.f(x)dx

> tk.

∫X2

f(x)dx = tk.P (g(X) > t)

d'oùP (g(X) > t) 6

E[(g(X))k]

tk

Corollaire 8.1.2.

P (g(X) 6 t) 1 1− E[(g(X))k]

tkInégalité de Bienaymé TCHEBITCHEFF

Corollaire 8.1.3. Posons g(x) = |x− X|

P (|x− X| 6 t) 1 1− E[|x− X|k]tk

Corollaire 8.1.4. Si V ar(X) = σ2 et E(X) = m, alorsP (m− 2σ < X 6 m+ 2σ) >

3

4

Corollaire 8.1.5. Soit a ∈ R ;

P (|X − a| > t) 6E[(X − a)2]

t2=σ2 + (m− a)2

t2

Page 65: probabilités et statistiques

8.2. CONVERGENCE PRESQUE SÛRE 65Application

Le théorème ci-dessus et ses corrolaires permettent d'estimer à priori lesprobabilités des phénomènes dont on dispose seulement d'informations surla moyenne et l'écart-type.

Supposons que X N (m,σ) ; on a :P (|X − E(X)| > 2σ) 6 0, 0456 ' 4, 6%

8.1.3 Dénition de la convergence en probabilité

Dénition 8.1.1. Soit (Zn)n∈N, une suite de variables aléatoires dénies surle même ensemble Ω. On dit que la suite (Zn)n∈N converge en probabilitévers le réel p si et seulement si :

∀ε > 0, limn→+∞

P (|Zn − p| > ε) = O

Condition susante de convergence en probabilité

Soit (Xn)n∈N, une suite de variables aléatoires telle que E(Xn) = a+ Unoù Un tend vers 0 lorsque n tend vers +∞ et V ar(Xn) = Vn où Vn tend vers0 lorsque n tend vers +∞. Alors, Xn converge vers a.

En eet :

P (|Xn−a| > ε) 6E[(Xn − a)2]

ε2=U2

n + U2a

ε2tend vers 0 pour n tendant vers +∞

8.2 CONVERGENCE PRESQUE SÛREDénition 8.2.1. Soit (Xn)n∈N, une suite de variables aléatoires.

(Xn)n∈N converge presque sûrement vers une variable a si et seule-ment si :∀ε > 0 , ∀η > 0 , ∃N1 ∈ N/

∀n ∈ N , n > N1 ⇒ P (|Xn − a| > ε, |Xn+1 − a| > ε, |Xn+p − a| > ε) < η

Remarque 8.2.1. La convergence en probabilité implique la convergence presquesûre, mais la réciproque n'est pas vraie.

Page 66: probabilités et statistiques

66 CHAPITRE 8. CONVERGENCE EN PROBABILITÉ

8.3 CONVERGENCE EN LOIDénition 8.3.1. Soit (Xn)n∈N, une suite de variables aléatoires de fonctionde répartition Fn.Soit X une variable aléatoire réelle de fonction de répartition F .

On dit que (Xn)n∈N converge en loi vers une variable X si et seulementsi Fn converge simplement vers F .Remarque 8.3.1. La convergence en probabilité implique la convergence enloi, mais la réciproque n'est pas vraie.

8.4 THÉORÈME CENTRAL-LIMITESoit (Xn)n∈N, une suite de variables aléatoires indépendantes deux à deux,communes de même moyenne m et d'écart-type σ > 0, alors :

Sn

n−mσ√n

où 1

n.Sn =

1

n.

n∑i=1

Xi = Xn

converge en loi vers la loi normale centrée-réduite quelque soit la suite devariables (Xn)n∈N.

Page 67: probabilités et statistiques

Deuxième partie

STATISTIQUES

67

Page 68: probabilités et statistiques
Page 69: probabilités et statistiques

Chapitre 9

ESTIMATIONS

9.1 MÉTHODES DE SONDAGE

9.1.1 Introduction

La collecte d'informations relatives à une population peut être faite defaçon exhaustive (on a l'information sur chaque individu), on parle alors derecensement ou sur une partie seulement de la population, on parle desondage et la partie de la population considérée est appelée échantillon.

Lorsque la taille de la population est très grande, le recensement devienttrès couteux en temps comme en moyens matériels et nanciers. C'est le casdu recensement général de la population.

Dénition 9.1.1. Le terme population désigne un groupe d'objets ou d'élé-ments pris en compte par un problème statistique donné. Chaque élément dela population est appelé individu. Les informations sur une population sontgénéralement obtenues par sondage. Ceci se fait par des enquêtes sur unefraction seulement de la population.

Le rapport nN

où n est la taille de l'échantillon et N la taille de la popu-lation est appelé taux de sondage.

Les enquêtes par sondage possèdent les avantages suivants : faible coût ; rapidité ; souplesse.

L'un des désavantages de l'échantillonage est la diculté à obtenir des échan-tillons signicatifs réalisés avec une précision susante.

69

Page 70: probabilités et statistiques

70 CHAPITRE 9. ESTIMATIONS

9.1.2 Types de sondages

On distingue deux grandes catégories de sondages : Les sondages par choix raisonnés ; Les sondages purement aléatoires.Les sondages par choix raisonnés sont fait en tenant compte des informa-

tions à priori obtenues sur la population.Pour les sondages aléatoires (tirage aléatoire), on suppose que les indi-

vidus sont tirés au hazard (sans aucun à priori) et chaque individu a uneprobabilité non nulle d'être tiré. Les valeurs observées sur les échantillonssont des variables aléatoires. A partir de ces observations, il est possible d'es-timer des grandeurs relatives à toute la population et d'évaluer des erreurséventuellement commises : on parle en statistique d'induction statistique.

9.1.3 Méthode de sondage aléatoire

Dénition 9.1.2. La méthode de sondage aléatoire est caractérisée par le faitque chaque individu de la population a une probabilité non nulle d'être tiré.En général, la même probabilité est aectée à chaque individu et le principedevient celui du tirage des boules dans une urne ; les tirages pouvant être :

avec remise : tirage bernoullien ; sans remise : tirage exhaustif.Pour résoudre des problèmes statistiques, on part d'observations indé-

pendantes d'une variable aléatoire réelle, on eectue n expériences aléatoireset la suite (x1, x2, . . . , xn) des valeurs observées, de variable aléatoire X,s'appelle échantillon de la variable X. Du point de vu de la théorie desprobabilités, cette suite est une suite de variables aléatoires indépendantesde même fonction de répartition (en général inconnu) : on parle alors deproblème statistique. La loi de l'échantillon est basée sur la loi des grandsnombres et le théorème central-limite.

9.2 ESTIMATEURDE PARAMÈTRES INCON-NUS

Dénition 9.2.1. Un estimateur θ d'un paramètre d'une loi inconnue estune fonction dénie dans l'espace des échantillons.Exemple 9.1. Xn = 1

n.∑n

i=1Xi est un estimateur de la moyenne.

Page 71: probabilités et statistiques

9.2. ESTIMATEUR DE PARAMÈTRES INCONNUS 71Qualité d'un estimateur

L'estimateur θ = θ(x1, x2, . . . , xn) est une variable aléatoire dont onpeut dénir la moyenne et la variance. Si θ est un estimateur du paramètreθ, l'estimateur θ sera dit sans biais si et seulement si :

E(θ) = θ ,∀ θ ∈ Θ

où Θ est l'ensemble des paramètres.Dans la classe des estimateurs sans biais, il est intuitif d'admettre que le

meilleur estimateur est celui qui minimize la variance V (θ) dénie par :V (θ) = E

[(θ − θ)2

]Soit P (x, θ), la densité de probabilité en fonction du paramètre inconnu θ.Supposons P (x, θ) dérivable par rapport à θ et

d

dθ.

∫Γ

P (x, θ) dx =

∫Γ

dP (x, θ)

dθ. dx

Posons ∫Γ

[d lnP (x, θ)

dθ.

]2

dx θ ∈ Θ,

I(θ) s'appelle quantité d'information sur θ contenue dans l'échan-tillon. Sous certaines conditions de régularité, on a :

σ2(θ) = E[(θ − θ)2

]>

1

n.σ(θ)(Inégalité de Cramer-Rao)

où n est la taille de l'échantillon.Un bon estimateur est caractérisé par son absence de biais et sa faible

dispersion. Le réel E(θ)− θ est appelé biais de l'estimateur.La variabilité de l'estimateur est mesurée par sa variance

V (θ) = E[(θ − θ)2

]Sur deux estimateurs, le plus écace est celui avec la plus petite variance.Principaux estimateurs

Soit P une population de N individus qu'on note US, repéré par leursnuméros S (1 6 S 6 N). Les individus de l'échantillon sont repérés parl'indice i.

Page 72: probabilités et statistiques

72 CHAPITRE 9. ESTIMATIONS

Soit X une variable aléatoire dans la population ; on désigne par XS, lavaleur de X prise par l'individu US. On noteXn =

1

n

n∑i=1

Xi , un estimateur de la moyenne sur l'échantillon.De même :

S2n =

1

n

n∑i=1

(Xi − Xn

)2est un estimateur de la variance sur l'échantillon.

S ′ 2n =

1

n− 1

n∑i=1

(Xi − Xn

)2est un autre estimateur de la variance sur l'échantillon.

La moyenne inconnue m de la population peut être estimée par Xn. Onnote que Xn est un estimateur sans biais (E(Xn) = m.On a :

V ar(Xn) =σ2

noù σ2 est la variance de la population inconnue (cas indépendant) et

V ar(Xn) =N − n

N − 1.σ2

n

où σ2 est la variance de la population inconnue (cas exhaustif) .Estimateur de la varianceNous avons deux estimateurs :

S2n =

1

n

n∑i=1

(Xi − Xn

)2S2

n =1

n− 1

n∑i=1

(Xi − Xn

)2de la variance inconnue de la population. Soit m, la moyenne inconnue de lapopulation ; nous savons que Xn est un estimateur sans biais et susammentécace de la moyenne pour n susamment grand. On a la relation suivante :

S2n =

1

n

n∑i=1

(Xi −m)2 −(Xn −m

)2E(S2

n) =1

n

n∑i=1

E (Xi −m)2 − E(Xn −m

)2=

nσ2

n− σ2

n=n− 1

nσ2

Page 73: probabilités et statistiques

9.3. ESTIMATION PONCTUELLE 73Donc

E(S2n) =

n− 1

nσ2

Le biais de cet estimateur est :∣∣B(S2n)∣∣ =

∣∣∣∣n− 1

nσ2 − σ2

∣∣∣∣ =σ2

n

Estimateur sans biais de la variance σ2

S2n =

n

n− 1S2

n =1

n− 1

n∑i=1

(Xi − Xn

)2est un estimateur sans biais de la variance σ2 car E(S2

n) = σ2. Ces calculspeuvent être fait dans le cas d'un échantillon exhaustif.

9.3 ESTIMATION PONCTUELLE9.3.1 Estimateur ponctuel de la moyenne

Soit P une population donnée étudiée sous un critère x ; x1, x2, ... , xnun échantillon indépendant, f(x, θ) la densité de probabilité de X, θ étant leparamètre moyenne inconnu.

Un estimateur sans biais et écace de θ (la moyenne inconnue) estXn =

1

n

n∑i=1

Xi

Démonstration. Par dénition de l'échantillon, chaque Xi suit la loi de X.E(X) = θ

V ar(Xi) = σ2

E(Xn) =1

n

n∑i=1

E(Xi) =nθ

n= θ

Donc Xn est un estimateur sans biais de la moyenne θ.Propriétés 24. Xn est un estimateur consistant et écace de la moyenne.En eet :

V ar(Xn) =σ2

n−→ 0 pour n −→∞ écacité

de la moyenne. En eet :P(∣∣Xn − θ

∣∣ 6 ε)−→ 1 pour ε −→ 0 consistence

Page 74: probabilités et statistiques

74 CHAPITRE 9. ESTIMATIONS

Méthode de maximum de vraisemblance (méthode générale pourtout autre paramètre d'une loi

Dénition 9.3.1. Soit X une variable aléatoire dont la distribution f(x, θ)dépend d'un paramètre θ. On considère un échantillon de n observations in-dépendantes x1, x2, . . . , xn. La fonction

L =n∏

i=1

f(xi, θ) = L(x1, . . . , xn, θ)

est appelée fonction de vraisemblance.

Pour chaque valeur θ, cette fonction peut être diérente. Le principe dumaximum de vraisemblance consiste à choisir comme estimateur de θ, lavaleur particulière θ de θ qui rend maximum la fonction L(x1, . . . , xn, θ).

Comme on l'a précisé plus tôt, L est la quantité d'information contenuedans l'échantillon.

L'estimation θ du paramètre θ inconnu sera la valeur de θ qui donne àl'échantillon obtenu la plus grande probabilité (vraisemblance) à priori d'êtreobtenue.

La détermination d'un estimateur ponctuel par la méthode du maximumde vraisemblance utilise les propriétés diérentielles de la fonction L de vrai-semblance. On suppose que L est susamment régulière par rapport à θ etque θ est un point singulier de L qui vérie donc la relation :

d

dθL(x1, . . . , xn, θ) = 0

En résolvant cette équation, on trouve les estimateurs θ. Quelques fois, laforme de la fonction f(x, θ) est compliquée et on utilise plutôtG = ln L(x1, . . . , xn, θ)en notant que G et L ont les mêmes points réguliers. On résout alors l'équa-tion :

dG

dθ= 0 pour déterminer θ

Exemple 9.2. On considère une variable aléatoire X normale de variance σ2

connue. On se propose d'estimer la moyenne m en utilisant la méthode dumaximum de vraisemblance.

Page 75: probabilités et statistiques

9.3. ESTIMATION PONCTUELLE 75Pour un échantillon (x1, x2, . . . , xn), on a :

f(x, θ) =1√

2π σ.exp

(−(xi − θ)2

2σ2

)L(x1, . . . , xn, θ) =

n∏i=1

f(xi, θ)

ln L(x1, . . . , xn, θ) =n∑

i=1

ln f(xi, θ)

=n∑

i=1

(ln

1√2πσ

− (x− θ)2

2σ2

)G′ = (ln L)′ =

n∑i=1

−2(x− θ)

2σ2= 0 ⇔

n∑i=1

(xi − θ) = 0

⇔ n.θ =n∑

i=1

xi

Soit θ =1

n

n∑i=1

xi

Remarque 9.3.1. Un estimateur du maximum de vraisemblance possède unepropriété de vraisemblance. Si G est un estimateur du maximum de vraisem-blance pour le paramètre θ et si h(θ) est une fonction possédant un inverse,alors h(θ) est un estimateur du maximum de vraisemblance pour le paramètreh(θ).Exercice 9.1. En utilisant la méthode du maximum de vraisemblance, déter-miner un estimateur ponctuel de la variance d'une population Gaussienne(c'est-à-dire que la population suit la loi normale).Remarque 9.3.2. La méthode des moments est une alternative à la méthodedu maximum de vraisemblance. Elle consiste essentiellement à égaler lesmoments d'échantillonnage aux moments de la distribution inconnues et àrésoudre le système d'équation ainsi obtenu pour avoir les paramètres re-cherchés. Les estimations des diérents paramètres sont obtenues commesolutions du système d'équation en nombre susant, exprimant l'égalité desmoments de l'échantillonnage.

9.3.2 Estimation ponctuelle de la variance

Soit P une population étudiée suivant un caractère X ; x1, x2, . . . , xn unn-échantillon indépendant de cette population.

Page 76: probabilités et statistiques

76 CHAPITRE 9. ESTIMATIONS

Proposition 9.3.1. On suppose que X a pour moment m et pour varianceσ2 inconnue ; les estimateurs

S2n =

1

n

n∑i=1

(xi − Xn)2

S2n =

1

n− 1

n∑i=1

(xi − Xn)2

sont deux estimateurs de la variance ; S2n étant un estimateur sans biais.

9.3.3 Estimation par intervalle

L'estimation ponctuelle est souvent mal adaptée au problème de l'esti-mation d'un paramètre par suite du fait qu'elle peut diérer notablementde la vraie valeur. Un autre type de l'estimation consistera à former un in-tervalle aléatoire entourant l'estimation ponctuelle. Ces intervalles, fonctionsdes observations, sont aléatoires et possèdent les propriétés de toute expé-rience aléatoire. On peut donc donner la probabilité pour que la vraie valeurappartienne à un intervalle. Ainsi, si θ est le paramètre à estimer, un in-tervalle de conance [a, b] est tel qu'il y ait une probabilité à priori donnée(1− α) pour pour que a 6 θ 6 b.

a et b sont les limites de conance de θ à 100(1 − α)% et l'intervallelui-même est appelé intervalle de conance à 100(1 − α)%. On dit aussiquelques fois intervalle aux risques de (1− α)%.

9.3.4 Quelques cas

Intervalle de conance de la moyenne d'une distribution normaledont on connaît l'écart-type

Soit X une variable aléatoire normale de moyenne inconnue µ et de va-riance σ2.

On note Xn la moyenne d'un échantillon de taille n tiré de cette loi. Alors :Xn − µ√

n N (0, 1)

Soit tα2le fractile d'ordre 100α

2% de la loi normale.

Alors,P

(−tα

26Xn − µ

σ√n

6 tα2

)= 1− α

Page 77: probabilités et statistiques

9.3. ESTIMATION PONCTUELLE 77nous donne un intervalle de conance à 100(1− α)%(

−tα26Xn − µ

σ√n

6 tα2

)⇒(−tα

2

σ√n

+ Xn 6 µ 6 tα2

σ√n

+ Xn

)On trouve l'intervalle de conance de µ suivant :[

Xn − tα2

σ√n, Xn + tα

2

σ√n

]à 100α

2%.

La longueur de cet intervalle est 2tα2

σ√n, qui tend vers 0 lorsque n tend

vers +∞.Remarque 9.3.3. Il existe une relation entre la théorie de l'intervalle deconance et la théorie de tests. Si nous voulons tester l'hypothèse µ = µ0contre l'alternative µ 6= µ0, la procédure que l'on verra au paragraphe sui-vant reviendra à admettre l'hypothèse µ = µ0 si µ appartient à l'intervallede conance de µ et à rejetter dans le cas contraire.Intervalle de conance de la moyenne d'une distribution normaledont l'écart-type est inconnu

Soit X une variable aléatoire suivant la loi normale de moyenne µ etd'écart-type σ inconnu.

Un échantillon de taille n nous donne des estimateurs ponctuels de lamoyenne Xn et de l'écart-type

S2n =

1

n

n∑i=1

(Xi − Xn)2

Proposition 9.3.2. Soit X une variable aléatoire suivant la loi normalede paramètres m et σ, σ étant inconnu, (x1, x2, . . . , xn) un n-échantillonindépendant ; Alors :

Xn −mSn√

n

t(n− 1)

Intervalle de conance pour la moyenne d'une population gaus-sienne, σ inconnu

P

(−tα

26Xn − µ

σ√n

6 tα2

)= 1− α

Page 78: probabilités et statistiques

78 CHAPITRE 9. ESTIMATIONS

nous donne cet intervalle de conance. tα2est déni par la loi de Student à

(n− 1) degrés de liberté. De même, on aura :(−tα

2

S2n√n

+ Xn 6 m 6 tα2

S2n√n

+ Xn

)

Intervalle de conance de l'écart-type d'une distribution normale

Soit X une variable aléatoire normale de moyenne inconnue µ et d'écart-type σ.Proposition 9.3.3. La variable :

Z = n.S2

n

σ2 X 2(n− 1)

P

(a ≤ n.

S2n

σ2≤ b

)= 1− α

Puisque X2 n'est pas symétrique, on va prendre :P(X2(n− 1) < a

)=α

2et P

(X2(n− 1) ≥ b

)=α

2

et lire a et b sur la table.(a ≤ n.

S2n

σ2≤ b

)⇒

(n.S2

n

b≤ σ2 ≤ n.

S2n

a

)

est un intervalle de conance à 100(1− α)% de la variance.

d'où√n

b.Sn ≤ σ ≤

√n

a.Sn

est un intervalle de conance à 100(1− α)% de l'écart-type.

Intervalle de conance de la diérence des moyennes de deux loisnormales

Soient deux variables aléatoires X N (µX , σX) et Y N (µY , σY ) ; oneectue nX observations de X et nY observations de Y .

Page 79: probabilités et statistiques

9.3. ESTIMATION PONCTUELLE 79 Cas où σX et σY sont connusOn sait dans ce cas que :

XnX− YnY

− (µX − µY )√σ2

X

nX+

σ2Y

nY

N (0, 1)

Par des procédés identiques aux précédents, on détermine alors un in-tervalle de conance pour (µX − µY ) qui aura pour bornes :

XnX− YnY

± tα2.

√σ2

X

nX

+σ2

Y

nY

Cas où σX et σY sont inconnus, mais σX = σYOn démontre alors que :XnX

− YnY− (µX − µY )√

1nX

+ 1nY.√

nX .S2X+nY .S2

Y

nX+nY −2

t(nX + nY − 2)

et on a donc l'intervalle de conance ayant pour bornes :

XnX− YnY

± tα2.

√1

nX

+1

nY

.

√nX .S2

X + nY .S2Y

nX + nY − 2

à 100(1− α)%.

Intervalle de conance du rapport d'écart-types de deux lois nor-males

Soient :X N(µX , σX)

Y N(µY , σY )

etS2

X = S2nX

=1

nX

.n∑

i=1

(xi − Xnx)2

S2Y = S2

nY=

1

nY

.n∑

i=1

(yi − Yny)2

Page 80: probabilités et statistiques

80 CHAPITRE 9. ESTIMATIONS

Proposition 9.3.4.

F =

S2X

σ2X

S2Y

σ2Y

F(nX − 1, nY − 1)

On peut déterminer un intervalle de conance du rapport σX

σYcomme précé-

demment.P (a ≤ F ≤) = 1− α

donc,a ≤

S2X

σ2X

S2Y

σ2Y

≤ b⇒ a.S2

Y

S2X

≤ σ2Y

σ2X

≤ b.S2

Y

S2X

et on détermine les bornes à l'aide de la table de Fisher-Snedecor :F = F(nX − 1, nY − 1)

Remarque 9.3.4.1. Nous avons considéré dans tout ce qui précède, des intervalles bilaté-

raux. On pourrait aussi chercher des intervalles de la forme [a,+∞[,]−∞, b] ou [a, b] non symétriques en appliquant la même logique.

2. Dans tout ce qui précède, nous n'avons considéré que des populationsgaussiennes, mais ces résultats restent valablent pour des échantillonsde taille susamment grande, quelque soit la loi considérée. Mais, pourdes échantillons de petite taille et des lois quelconques, c'est du casparticulier qu'il faut faire.

Page 81: probabilités et statistiques

Chapitre 10

TESTS STATISTIQUES

10.1 INTRODUCTIONLa statistique a en général pour objet le problème de la décision dans

le cas de l'incertain. La décision devra en général être prise sur la vue desrésultats d'un échantillonage ; L'incertitude se traduisant par le fait qu'unéchantillonage répété donnerait des résultats diérents. Il est aussi impor-tant de noter que l'objet de la statistique est la résolution des problémes oùl'incertain est un élément essentiel.

La statistique est en général utilisée dans la théorie de contrôle de qualité,de gestion, de sondage de points de vue aussi bien dans le domaine écono-mique, politique, que tout autre. Les décisions sont prises à l'aide des testsstatistiques. En général, on dispose de deux hypothèses :

L' hypothèse nulle H0 ; L' hypothèse alternative H1.

10.2 TEST CLASSIQUE10.2.1 Test relatif à une fréquence

Soit une population composée d'individus dont certains possèdent le ca-ractère A. Soit un échantillon de taille n prélévé dans cette population, ona observé une fréquence f d'individus possédant ce caractère. La proportionP d'individus ayant le caractère A dans la population est inconnue et laproportion f mesurée sur l'échantillon peut diérer grandement de la vraievaleur P en raison des uctuations d'échantillonage. Sur la base de la valeurf observée sur l'échantillon, on se propose de tester si la vraie proportion fpeut être considérée ou non comme égale à une valeur P0 xée à priori.

81

Page 82: probabilités et statistiques

82 CHAPITRE 10. TESTS STATISTIQUES

On dénit ainsi trois types de tests :

- Type 1 : Hypothèse H0 : P = P0 ;Hypothèse H1 : P > P0 ;- Type 2 : Hypothèse H0 : P = P0 ;Hypothèse H1 : P < P0 ;- Type 3 : Hypothèse H0 : P = P0 ;Hypothèse H1 : P 6= P0.

La fréquence f , selon le mode de tirage de l'échantillon, suit une loi bino-miale ou hypergéométrique ayant pour paramètre P = P0 en supposant quel'hypothèse H0 est exacte.

Sous certaines conditions, (n très grand ou le taux de sondage petit) laloi de la fréquence f normalisée suit la loi normale centrée-réduite.

T =f − P0√P0(1−P0)

n

N (0, 1)

Etant donné le seuil de signication α, on est en mesure de déterminer larégion critique correspondant à chacun de ces trois cas.

Type 1 : La région critique est de la forme R : f > l

P (f > l/P=P0) = α et P (T > tα) = α

On trouve :l = P0 + tα.

√P0(1− P0)

n

Décision : Si la fréquence observée est supérieure à l, on rejette l'hypothèse H0,c'est-à-dire l'hypothèse H1 est retenue. Si la fréquence observée est inférieure à l, on retient l'hypothèse H0.

Type 2 : La région critique est de la forme R : f < l

Analogue au Type 1 en inversant les décisions.

Page 83: probabilités et statistiques

10.2. TEST CLASSIQUE 83Type 3 : La région d'acceptation est de la forme R : l1 < f < l2

On a :P (l1 < f < l2) = 1− α

Décision : On a

l1 = P0 − tα.

√P0(1− P0)

net l2 = P0 + tα.

√P0(1− P0)

n

Si la valeur observée appartient à R, on prend la décision H0, sinon on prendla décision H1.Exemple 10.1. On se propose de contrôler par sondage l'exactitude de l'in-ventaire d'un stock commercial comprenant une dizaine de milliers d'articles.Un échantillon de 500 articles a été tiré dans ce but et on admet qu'une pro-portion d'erreur dans l'inventaire inférieure ou égale à 3% est acceptable àun seuil de 5% .

Solution :Puisque n est très grand (n = 500) et P0 = 0, 03, posons comme hypo-

thèses : Hypothèse nulle : H0 : P = P0 ; Hypothèse alternative : H1 : P > P0 ;Région critique : R = f > l

l = P0 + tα.

√P0(1− P0)

nP (T > tα) = α = 0, 05 ⇒ α = 1, 65

⇒ l = 0, 043

On rejettera donc l'hyporthèse H0 et on supposera que la proportiond'erreur commise dans l'inventaire est supérieure ou égale à 4, 3% si le pour-centage d'erreur rélevé sur l'échantillon est supérieur ou égal à 3%.

10.2.2 Test sur la moyenne

Sur un échantillon de taille N , on a observé la valeur moyenne Xn rela-tive à la variable statistique X. La véritable valeur m de la moyenne pourl'ensemble de la population est inconnue et Xn peut en diérer en raison desuctuations aléatoires. Sur la base de la valeur Xn observée, on se propose detester si la moyenne m peut être considérée ou non comme égale à la valeurm0 xée à priori.En fonction du problème posé on peut choisir l'un des trois tests suivants :

Page 84: probabilités et statistiques

84 CHAPITRE 10. TESTS STATISTIQUES

- Type 1 : Hypothèse H0 : m = m0 ;Hypothèse H1 : m > m0 ;- Type 2 : Hypothèse H0 : m = m0 ;Hypothèse H1 : m < m0 ;- Type 3 : Hypothèse H0 : m = m0 ;Hypothèse H1 : m 6= m0.Si la population d'origine est normalement distribuée (population gaussienne)ou si l'échantillon est susamment grand, Xn suit approximativement la loide Laplace-Gauss de paramètres (m, σ√

n) où m est la moyenne inconnue et

σ l'écart-type de la variable X dans l'ensemble de la population. On peutnoter que sous l'hypothèse H0, on ne peut entièrement déterminer la loi deXn parce que σ est en général inconnu. Deux cas se présentent alors :

L'écart-type σ est connuDépendant donc du type de test considéré, on détermine la région cri-tique R en notant que :

T = Xn −m0σ√n

N (0, 1)

Ceci nous permet de déterminer les bornes de la région critique. L'écart-type σ est inconnu (cas le plus fréquent)On ignore en même temps la moyenne et l'écart-type. Mais nous savonsqu'un estimateur sans biais et écace de la variance est donné par :

S2n =

1

n− 1.

n∑i=1

(xi − Xn)2

Si l'éectif de l'échantillon est grand (n ≥ 30), on admet que :T = Xn −

m0

§n√n

N (0, 1)

Ceci nous permet de déterminer la région critique.Par contre, si n est petit (n < 30) la variable T ne suit plus la loinormale centrée-réduite mais plutôt la loi de Student-Fisher à (n −1) degrés de liberté. La région d'acceptation est donc déterminée enutilisant la loi de Student-Fisher.

Exercice 10.1. Une machine fabrique des pièces mécaniques en série. Elle aété réglée pour que le diamètre de celle-ci soit égale à 12, 60mm. Il est tout àfait normal qu'une certaine variabilité est admise. Sur un échantillon de 100pièces, on a observé pour ce diamètre une valeur moyenne Xn = 12, 65mmet une variance δ2 = 0, 1584mm.

Page 85: probabilités et statistiques

10.3. TEST DE KOLGOMOROV 85Le réglage de la machine peut-il être considéré comme exacte au seuil de

5% ?Exercice 10.2. On suppose que dans l'exemple précédant, la moyenne Xn =12, 65mm et la variance δ2 = 0, 1584mm ont été observées sur un échantillonde 10 pièces seulement. Quelle est la décision au seuil de 5% pour ce cas ?Remarque 10.2.1. En utilisant les propriétés des lois que nous avons vu dansla première partie de ce cours, on peut traiter le cas des tests de comparaisonde fréquence, de moyenne et des tests relatifs au quotient des fréquences.

10.3 TEST DE KOLGOMOROVIl s'agit d'un test de conformité. A partir des observations faites, on vou-

drait tester si la loi de la population inconnue suit la loi théorique donnée.Le cas le plus fréquent est la loi normale. A partir des observations faites surl'échantillon, peut-on admettre que la loi de la population est normale ?

En général, la loi du Khi-deux est utilisée.