98
COURS DE PROBABILITES ET CALCUL STOCHASTIQUE Olivier L´ evˆ eque, EPFL Semestre d’hiver 2004-2005

COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

  • Upload
    voquynh

  • View
    218

  • Download
    0

Embed Size (px)

Citation preview

Page 1: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

COURS DE PROBABILITES

ET CALCUL STOCHASTIQUE

Olivier Leveque, EPFL

Semestre d’hiver 2004-2005

Page 2: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Avertissement

Ce polycopie a ete etabli sur la base des notes du cours de probabilite et calcul stochastiquedonne dans le cadre du cycle d’etudes postgrades en ingenierie mathematique a l’EPFL. Ilne constitue en aucun cas une reference de calcul stochastique, etant donne les nombreuseslacunes et imprecisions qui le parsement. Pour une exposition plus complete, le lecteur estrenvoye a la bibliographie.

Le but du cours est de donner une premiere idee du sujet a des etudiants provenant d’ho-rizons differents (sur un court laps de temps de 30 periodes concentrees sur deux mois).Le niveau requis pour suivre le cours est celui d’un etudiant ayant accompli une formationd’ingenieur et deja suivi un cours de base de probabilites.

Pour beneficier pleinement de la lecture de ce polycopie, il est necessaire d’effectuer enparallele les exercices qui l’accompagnent. Ceux-ci sont disponibles sur la page web :

http ://lthiwwww.epfl.ch/∼leveque/Proba/

Remerciements

Deux personnes ont fortement contribue a la redaction de ce polycopie. Je desirerais remer-cier tout d’abord Raffi Aghayekian, etudiant de la volee 2002-2003, pour sa prise de notesappliquee qui a constitue la premiere version manuscrite de ces notes de cours. Mes remercie-ments vont ensuite a Erika Gindraux qui a patiemment dactylographie la premiere versionde ces notes.

Un grand merci va egalement a tous les etudiants pour leur motivation a apprendre lesprobabilites et leurs nombreuses questions et commentaires qui ont contribue a l’elaborationde ces notes. Et finalement, merci a Benjamin Berge pour avoir pour avoir pris le temps derelire le manuscrit.

ii

Page 3: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Table des matieres

1 Rappels de probabilite 11.1 Espace de probabilite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Variable aleatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.3 Loi d’une variable aleatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.4 Esperance d’une variable aleatoire . . . . . . . . . . . . . . . . . . . . . . . . 61.5 Independance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.5.1 Independance d’evenements . . . . . . . . . . . . . . . . . . . . . . . 91.5.2 Independance de tribus . . . . . . . . . . . . . . . . . . . . . . . . . . 91.5.3 Independance de variables aleatoires . . . . . . . . . . . . . . . . . . 10

1.6 Esperance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101.6.1 Conditionnement par rapport a un evenement B ∈ F . . . . . . . . . 101.6.2 Conditionnement par rapport a une v.a. discrete Y (a valeurs dans D

denombrable) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.6.3 Conditionnement par rapport a une v.a. Y continue ? Cas general ? . 111.6.4 Conditionnement par rapport a une tribu G . . . . . . . . . . . . . . 11

1.7 Convergences de suites de variables aleatoires . . . . . . . . . . . . . . . . . 131.8 Processus aleatoire a temps discret . . . . . . . . . . . . . . . . . . . . . . . 161.9 Vecteur aleatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2 Calcul stochastique 242.1 Processus aleatoire a temps continu . . . . . . . . . . . . . . . . . . . . . . . 24

2.1.1 Processus a accroissements independants et stationnnaires . . . . . . 242.1.2 Mouvement brownien standard . . . . . . . . . . . . . . . . . . . . . 252.1.3 Processus gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272.1.4 Processus de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . 282.1.5 Martingale a temps continu . . . . . . . . . . . . . . . . . . . . . . . 29

2.2 Integrale de Riemann-Stieltjes . . . . . . . . . . . . . . . . . . . . . . . . . . 322.3 Variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342.4 Integrale stochastique (ou integrale d’Ito) . . . . . . . . . . . . . . . . . . . . 382.5 Formules d’Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

2.5.1 Formules de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 472.5.2 Processus d’Ito (ou “semi-martingale continue”) . . . . . . . . . . . . 502.5.3 Retour a l’integrale de Stratonovich . . . . . . . . . . . . . . . . . . . 512.5.4 Formules d’Ito generalisees . . . . . . . . . . . . . . . . . . . . . . . . 532.5.5 Formule d’integration par parties (IPP) . . . . . . . . . . . . . . . . . 54

2.6 Equations differentielles stochastiques (EDS) . . . . . . . . . . . . . . . . . . 552.6.1 Equations homogenes en temps . . . . . . . . . . . . . . . . . . . . . 552.6.2 Equations inhomogenes en temps . . . . . . . . . . . . . . . . . . . . 59

iii

Page 4: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

2.6.3 Equations lineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 602.6.4 Solution faible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 612.6.5 Martingale exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . 62

2.7 Theoreme de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 632.8 Liens EDS ↔ EDP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

2.8.1 Lien mouvement brownien ↔ equation(s) de la chaleur . . . . . . . . 692.8.2 Lien EDS ↔ EDP paraboliques (formule de Feynman-Kac) . . . . . . 71

2.9 Processus multidimensionnels . . . . . . . . . . . . . . . . . . . . . . . . . . 762.10 Analyse et simulation numeriques des EDS . . . . . . . . . . . . . . . . . . . 842.11 Pour conclure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

Bibliographie 94

iv

Page 5: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

1 Rappels de probabilite

1.1 Espace de probabilite Cours 1

Un espace de probabilite est un triplet (Ω,F ,P) ou :

- Ω est un ensemble,- F est une tribu (ou σ-algebre) sur Ω,- P est une (mesure de) probabilite sur (Ω,F).

Definition 1.1.1. Une tribu (ou σ-algebre) sur Ω est une famille F de sous-ensembles deΩ (appeles “evenements”) tels que

i) ∅ ∈ F ,ii) A ∈ F ⇒ Ac ∈ F ,iii) (An)

∞n=1 ⊂ F ⇒ ∪∞n=1An ∈ F .

En particulier : A,B ∈ F ⇒ A ∪B ∈ F .De meme, A,B ∈ F ⇒ A ∩B ∈ F (cf. exercices pour d’autres proprietes).

Exemple 1.1.2. - Soit Ω = 1, . . . , 6. On peut definir plusieurs tribus sur Ω :

F = P(Ω) = ∅, 1, 2, . . . , 1, 2, . . . ,Ω= tribu complete (la plus grande),F0 = ∅,Ω = tribu triviale (la plus petite) (∅ = even. impossible, Ω = even. arbitraire),F1 = ∅, 1, 2, . . . , 6,Ω, F2 = ∅, 1, 3, 5, 2, 4, 6,Ω, etc.

- Soit Ω = [0, 1] et I1, . . . , In une famille d’intervalles formant une partition de Ω. La famillede sous-ensembles definie par

G = ∅, I1, I2, . . . , I1 ∪ I2, . . . , I1 ∪ I2 ∪ I3, . . . ,Ω

est une tribu sur Ω.

Definition 1.1.3. Soit A = Ai, i ∈ I une famille de sous-ensembles de Ω. Alors latribu engendree par A est la plus petite tribu sur Ω qui contient tous les sous-ensemblesAi, i ∈ I. Elle est notee σ(A). (NB : l’ensemble I n’est pas forcement denombrable.)

Exemple 1.1.4. Reprenons l’exemple 1.1.2.- Soit Ω = 1, . . . , 6. SiA1 = 1, alors σ(A1) = F1. SiA2 = 1, 3, 5, alors σ(A2) = F2.Et si A = 1, 3, 5, 1, 2, 3, alors σ(A) =? (cf. exercices).

- Soit Ω = [0, 1]. Si A = I1, . . . , In, alors σ(A) = G.

1

Page 6: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Definition 1.1.5. Soit Ω = [0, 1]. La tribu borelienne sur [0, 1] est la tribu engendree par lafamille de sous-ensembles A = ]a, b[ : 0 ≤ a < b ≤ 1 = intervalles ouverts dans [0, 1].Elle est notee B([0, 1]). Elle contient un tres grand nombre de sous-ensembles de [0, 1], maispas tous.

Remarque 1.1.6. - Pour Ω ensemble fini, on choisit souvent F = P(Ω).- Pour Ω ⊂ R ou Ω ⊂ Rn, on choisit souvent F = B(Ω).Definition 1.1.7. Une sous-tribu de F est une tribu G telle que si A ∈ G alors A ∈ F .On note G ⊂ F .Exemple 1.1.8. Reprenons l’exemple 1.1.2. On a F0 ⊂ F1 ⊂ F , F0 ⊂ F2 ⊂ F , mais pasF1 ⊂ F2, ni F2 ⊂ F1.Remarque importante :

Il est toujours vrai que A ∈ G et G ⊂ F ⇒ A ∈ F .Mais il est faux de dire que A ⊂ B et B ∈ F ⇒ A ∈ F . Contre-exemple :

1 ⊂ 1, 3, 5, 1, 3, 5 ∈ F2, mais 1 6∈ F2.

Definition 1.1.9. Soit F une tribu sur Ω. Une (mesure de) probabilite sur (Ω,F) est uneapplication P : F → [0, 1] telle que

i) P(∅) = 0 et P(Ω) = 1,ii) (An)

∞n=1 ⊂ F disjoints (i.e. An ∩ Am = ∅,∀n 6= m)⇒ P(∪∞n=1An) =

∑∞n=1 P(An).

En particulier : A,B ∈ F et A ∩B = ∅ ⇒ P(A ∪B) = P(A) + P(B). De plus :

i) Si (An)∞n=1 ⊂ F , An ⊂ An+1 et ∪∞n=1 An = A, alors limn→∞ P(An) = P(A),

ii) Si (An)∞n=1 ⊂ F , An ⊃ An+1 et ∩∞n=1 An = A, alors limn→∞ P(An) = P(A).

Pour d’autres proprietes, cf. exercices.

Exemple 1.1.10. Soient Ω = 1, . . . , 6, F = P(Ω). On definit :- P1(i) = 1

6∀i (mesure de probabilite associee a un de equilibre).

Dans ce cas, on voit p. ex. que P1(1, 3, 5) = P1(1) + P1(3) + P1(5) = 16+ 1

6+ 1

6= 1

2.

- P2(i) = 0 ∀i ≤ 5, P2(6) = 1 (mesure de probabilite associee a un de pipe).

Definition 1.1.11. Soient Ω = [0, 1] et F = B([0, 1]). On appelle mesure de Lebesgue sur [0, 1]la mesure de probabilite definie par

P( ]a, b[ ) = b− a, ∀0 ≤ a < b ≤ 1.

P n’est definie a priori que sur les intervalles, mais est uniquement extensible a tout ensembleborelien B ∈ B([0, 1]). Elle est notee P(B) = |B|, B ∈ B([0, 1]).

2

Page 7: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

En utilisant la propriete (ii) ci-dessus, on deduit que pour tout x ∈ [0, 1] :

|x| = limn→∞ | ]x−

1

n, x+

1

n[ | = lim

n→∞2

n= 0.

Generalisation a n dimensions : Soit Ω = [0, 1]n.

- Tribu borelienne : B(Ω) = σ(A), ou A = ]a1, b1[×]a2, b2[× · · · ×]an, bn[, 0 ≤ ai < bi ≤ 1.A est la famille des “rectangles” dans Ω.

- Mesure de Lebesgue : P( ]a1, b1[×]a2, b2[× · · · ×]an, bn[ ) = (b1 − a1)(b2 − a2) · · · (bn − an).Comme dans le cas uni-dimensionnel, P n’est definie a priori que sur certains ensembles (lesrectangles), mais est uniquement extensible a tout B ∈ B(Ω) (p.ex. B = disque, ovale...).

Notation : P(B) = |B|, pour B ∈ B(Ω).

1.2 Variable aleatoire

Definition 1.2.1. Soit (Ω,F ,P) un espace de probabilite. Une variable aleatoire (souventabrege v.a. par la suite) est une application X : Ω→ R telle que

ω ∈ Ω : X(ω) ∈ B = X ∈ B ∈ F , ∀B ∈ B(R).

Proposition 1.2.2. X est une v.a. ssi ω ∈ Ω : X(ω) ≤ t ∈ F , ∀t ∈ R.

Remarque 1.2.3. - X est aussi dite une fonction (ou v.a.) F -mesurable.- Si F = P(Ω), alors X est toujours F -mesurable.- Si Ω = R et F = B(R), alors X est dite une fonction borelienne.

Definition 1.2.4. Pour A ⊂ Ω, on pose 1A(ω) =

1 si ω ∈ A,0 sinon.

On verifie que la v.a. 1A est F -mesurable ssi A ∈ F .

Exemple 1.2.5. Soit (Ω,F ,P) l’espace de probabilite du de equilibre (cf. exemple 1.1.10).X1(ω) = ω : P(ω ∈ Ω : X1(ω) = i) = P(i) = 1

6.

X2(ω) = 11,3,5(ω) : P(ω ∈ Ω : X2(ω) = 1) = P(1, 3, 5) = 12.

Soit F = P(Ω). X1 et X2 sont toutes deux F -mesurables.Soit F2 = ∅, 1, 3, 5, 2, 4, 6,Ω. Seule X2 est F2-mesurable ; X1 ne l’est pas. En effet :

ω ∈ Ω : X2(ω) = 1 = 1, 3, 5 ∈ F2 et ω ∈ Ω : X2(ω) = 0 = 2, 4, 6 ∈ F2,

tandis que ω ∈ Ω : X1(ω) = 1 = 1 6∈ F2.

3

Page 8: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Definition 1.2.6. La tribu engendree par une famille de v.a. Xi, i ∈ I sur (Ω,F ,P) estdefinie par

σ(Xi, i ∈ I) = σ(Xi ∈ B, i ∈ I, B ∈ B(R)) = σ(Xi ≤ t, i ∈ I, t ∈ R).

Exemple 1.2.7. Reprenons l’exemple precedent : σ(X1) = F = P(Ω), σ(X2) = F2 6= P(Ω).

Proposition 1.2.8. Si g : R → R est borelienne et X : Ω→ R est une v.a., alors g(X) estune v.a.

Demonstration. Soit B ∈ B(R). On a

ω ∈ Ω : g(X(ω)) ∈ B = ω ∈ Ω : X(ω) ∈ g−1(B).

Or g−1(B) = x ∈ R : g(x) ∈ B ∈ B(R), car g est borelienne. Comme X est une v.a., onen deduit que ω ∈ Ω : X(ω) ∈ g−1(B) ∈ F , et donc finalement que g(X) est une v.a. ¤

Proposition 1.2.9. Toute fonction continue est borelienne (et pratiquement toute fonctiondiscontinue l’est aussi !).

1.3 Loi d’une variable aleatoire

Definition 1.3.1. La loi d’une v.a. X est l’application µX : B(R)→ [0, 1] definie par

µX(B) = P(X ∈ B), B ∈ B(R).

NB : (R,B(R), µX) forme un nouvel espace de probabilite !

Exemple 1.3.2. - Soit Ω = 1, . . . , 6, F = P(Ω), P(i) = 16, ∀i.

X1(ω) = ω, µX(i) = P(X = i) = P(i) = 16.

- Soit Ω = 1, . . . , 6 × 1, . . . , 6, F = P(Ω), P((i, j)) = 136, ∀(i, j) ∈ Ω.

X(ω) = X(ω1, ω2) = ω1 + ω2. On a alors, p.ex :µX(7) = P(X = 7) = P((1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1) = 6× 1

36= 1

6.

Fonction de repartition d’une variable aleatoire

Definition 1.3.3. La fonction de repartition d’une v.a. X est l’application FX : R → [0, 1]definie par

FX(t) = P(X ≤ t) = µX( ]−∞, t]), t ∈ R.

Proposition 1.3.4. La donnee de FX equivaut a celle de µX .

4

Page 9: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Cette derniere proposition est a rapprocher de la proposition 1.2.2.

Deux types particuliers de variables aleatoires

A) Variable aleatoire discrete :

X prend ses valeurs dans un ensemble D denombrable (X(ω) ∈ D,∀ω ∈ Ω). Dans ce cas, ona : σ(X) = σ(X = x, x ∈ D), p(x) = P(X = x) ≥ 0 et

x∈D p(x) = P(x ∈ D) = 1.De plus, FX(t) =

x∈D:x≤t p(x).

B) Variable aleatoire continue :

P(X ∈ B) = 0 si |B| = 0 (en part. P(X = x) = 0∀x). Sous cette condition, le theoremede Radon-Nikodym assure l’existence d’une fonction borelienne fX : R → R (appelee densite)telle que

fX(x) ≥ 0, ∀x ∈ R,∫

RfX(x) dx = 1 et P(X ∈ B) =

BfX(x) dx.

De plus, FX(t) =∫ t−∞ fX(x) dx et F ′X(t) = fX(t).

Exemple 1.3.5.A) Loi binomiale B(n, p), n ≥ 1, p ∈ [0, 1] :

p(k) = P(X = k) =(

np

)

pk(1− p)n−k, pour 0 ≤ k ≤ n,

ou

(

np

)

=n!

k!(n− k)!.

B) Loi gaussienne N (µ, σ2), µ ∈ R, σ > 0 :

densite : fX(x) =1√2πσ2

exp

(

−(x− µ)2

2σ2

)

, x ∈ R.

Terminologie : - Si X suit une loi gaussienne (p.ex.), on ecrit X ∼ N (µ, σ2).- Si X et Y suivent une meme loi, on dit que X et Y sont identiquement distribuees (i.d.) eton note X ∼ Y (ne pas confondre avec X ' Y , qui veut dire que X est “a peu pres egale”a Y ).

5

Page 10: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

1.4 Esperance d’une variable aleatoire Cours 2

Construction de l’esperance (= integrale de Lebesgue !)

On procede en trois etapes :

1. Soit X(ω) =∑∞

i=0 xi 1Ai(ω), xi ≥ 0, Ai ∈ F . On definit l’esperance de telles v.a. (dites

simples) comme suit :

E(X) =∞∑

i=0

xi P(Ai) ∈ [0,+∞].

Attention ! E(X) peut prendre la “valeur” +∞.

Exemples : - Si X = 1A, P(A) = p, alors E(X) = P(A) = p.- Si X = c 1Ω = cte sur Ω, alors E(X) = c.

2. Soit X une v.a. F -mesurable telle que X(ω) ≥ 0, ∀ω ∈ Ω. On pose

Xn(ω) =∞∑

i=0

i

2n1 i

2n≤X< i+1

2n(ω).

Alors (Xn) est une suite croissante de v.a. qui tend vers X. On definit

E(X) = limn→∞E(Xn) = lim

n→∞

∞∑

i=0

i

2nP(

i

2n≤ X <

i+ 1

2n

)

∈ [0,+∞].

3. Soit X une v.a. F -mesurable quelconque. On pose

X(ω) = X+(ω)−X−(ω) avec

X+(ω) = max(0, X(ω)) ≥ 0,X−(ω) = max(0,−X(ω)) ≥ 0.

On a alors |X(ω)| = X+(ω) +X−(ω) ≥ 0.

- Si E(|X|) <∞, alors on definit E(X) = E(X+)− E(X−).- Si E(|X|) =∞, alors on dit que E(X) n’est pas definie.

Terminologie : - Si E(X) = 0, alors on dit que X est une v.a. centree.- Si E(|X|) <∞, alors on dit que X est une v.a. integrable.- Si E(X2) <∞ alors on dit que X est une v.a. de carre integrable.- On dit que X est une v.a. bornee s’il existe une cte K > 0 telle que |X(ω)| ≤ K, ∀ω ∈ Ω.

Remarque 1.4.1. X bornee ⇒ E(X2) <∞⇒ E(|X|) <∞.

6

Page 11: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Proposition 1.4.2. Soient X une v.a. et g : R → R une fonction borelienne telle queE(|g(X)|) <∞. Alors

A) Si X est une v.a. discrete (a valeurs dans D denombrable), alors

E(g(X)) =∑

x∈Dg(x) P(X = x).

B) Si X est une v.a. continue (avec densite fX), alors

E(g(X)) =∫

Rg(x) fX(x) dx.

Ceci s’applique en particulier si g(x) = x.

Variance et covariance de variables aleatoires

Definition 1.4.3. Soient X,Y deux v.a. de carre integrable. On pose

Var(X) = E((X − E(X))2) = E(X2)− (E(X))2 ≥ 0Cov(X,Y ) = E((X − E(X))(Y − E(Y ))) = E(XY )− E(X)E(Y )

Terminologie : - Un evenement A ∈ F est dit negligeable si P(A) = 0.- Un evenement A ∈ F est dit presque sur (souvent abrege p.s.) si P(A) = 1, i.e. si Ac estnegligeable.

Exemple 1.4.4. Soit X une v.a. telle que P(X = c) = 1. Alors on dit que X = c presquesurement (“X = c p.s.”)

Proposition 1.4.5. Si (An)∞n=1 ⊂ F est une famille d’evenements negligeables

(i.e. P(An) = 0 ∀n), alors ∪∞n=1An est negligeable.

Demonstration. P(∪∞n=1An) ≤∑∞

n=1 P(An) = 0. ¤

Exemple 1.4.6. L’ensemble A = [0, 1] ∩Q est negligeable pour la mesure le Lebesgue, carQ est denombrable et |x| = 0 pour tout x ∈ [0, 1].

Proprietes de l’esperanceSoient X,Y deux v.a. integrables.- Linearite : E(cX + Y ) = cE(X) + E(Y ), c ∈ R et X,Y v.a. integrables.- Positivite : si X ≥ 0 p.s., alors E(X) ≥ 0.- Positivite stricte : si X ≥ 0 p.s. et E(X) = 0, alors X = 0 p.s.

7

Page 12: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

- Monotonie : si X ≥ Y p.s., alors E(X) ≥ E(Y ).

Inegalite de Cauchy-SchwarzSoient X,Y deux v.a. de carre integrable. Alors

i) XY est integrable,ii) (E(|XY |))2 ≤ E(X2)E(Y 2).

En posant Y ≡ 1, on trouve que (E(|X|))2 ≤ E(X2) (donc E(|X|) < ∞ si E(X2) < ∞ ; cf.remarque 1.4.1).

Inegalite triangulaireSoient X,Y deux v.a. integrables. Alors

E(|X + Y |) ≤ E(|X|) + E(|Y |)

Inegalite de JensenSoient X une v.a. et ϕ : R → R une fonction borelienne et convexe telle que E(|ϕ(X)|) <∞.Alors

ϕ(E(X)) ≤ E(ϕ(X)).

En particulier, |E(X)| ≤ E(|X|).Demonstration. Vu que ϕ est convexe, on a ϕ(x) = sup

a,b: ay+b≤ϕ(y),∀y∈R(ax+ b) et donc :

ϕ(E(X)) = supa,b:...

(aE(X) + b) = supa,b:...

E(aX + b) ≤ supa,b:...

E(ϕ(X)) = E(ϕ(X)).

¤

Exemple 1.4.7. Si X = a ou b avec prob. 12- 12et ϕ est convexe, alors ϕ(E(X)) = ϕ( a+b

2) ≤

ϕ(a)+ϕ(b)2

= E(ϕ(X)).

Inegalite de Chebychev (ou Markov)Soient X une v.a. et ψ : R → R+ telle que ψ est borelienne et croissante sur R+, ψ(a) > 0pour tout a > 0 et E(ψ(X)) <∞. Alors

P(X ≥ a) ≤ E(ψ(X))

ψ(a), ∀a > 0.

Demonstration. Du fait que ψ est croissante sur R+, on a

E(ψ(X)) ≥ E(ψ(X) 1X≥a) ≥ E(ψ(a) 1X≥a) = ψ(a)E(1X≥a) = ψ(a)P(X ≥ a).Comme ψ(a) > 0, ceci permet de conclure. ¤

8

Page 13: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

1.5 Independance

1.5.1 Independance d’evenements

Definition 1.5.1. Deux evenements A et B(∈ F) sont independants si P(A∩B) = P(A)P(B).Attention ! Ne pas confondre : A et B sont disjoints si A∩B = ∅ (⇒ P(A∪B) = P(A)+P(B)).

Notation : Si A est independant de B, on note A⊥B (de meme pour les tribus et les v.a. ;voir plus bas).

Consequence :

P(Ac ∩B) = P(B\(A ∩B)) = P(B)− P(A ∩B)

= P(B)− P(A)P(B) = (1− P(A))P(B) = P(Ac)P(B).

De meme, on a P(A ∩Bc) = P(A)P(Bc) et P(Ac ∩Bc) = P(Ac)P(Bc).

Definition 1.5.2. n evenements A1, . . . , An ∈ F sont independants si

P(A∗1 ∩ · · · ∩ A∗n) =n∏

i=1

P(A∗i ), ou A∗i = soit Ai, soit Aci .

Proposition 1.5.3. n evenements A1, . . . , An ∈ F sont independants ssi

P(∩i∈IAi) =∏

i∈IP(Ai), ∀I ⊂ 1, . . . , n.

Remarque 1.5.4. - Pour n > 2, la condition P(A1∩· · ·∩An) = P(A1) · · ·P(An) ne suffit pas !- L’independance de n evenements telle que definie ci-dessus est plus forte que l’independancedeux a deux (Ai⊥Aj, ∀i 6= j).

1.5.2 Independance de tribus

Definition 1.5.5. Une famille (F1 . . .Fn) de sous-tribus de F est independante si

P(A1 ∩ · · · ∩ An) = P(A1) · · ·P(An), ∀A1 ∈ F1, . . . , An ∈ Fn.

Proposition 1.5.6. (σ(A1), . . . , σ(An)) est une famille de sous-tribus independantes ssi lesevenements (A1, . . . , An) sont independants.

9

Page 14: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

1.5.3 Independance de variables aleatoires

Definition 1.5.7. Une famille (X1, . . . , Xn) de v.a. (F-mesurables) est independante si(σ(X1), . . . , σ(Xn)) est independante.

Proposition 1.5.8. (X1, . . . , Xn) est une famille de v.a. independantesssi les evenements X1 ≤ t1, . . . , Xn ≤ tn sont independants ∀t1, . . . , tn ∈ R.

En particulier : X⊥Y ssi P(X ≤ t, Y ≤ s) = P(X ≤ t)P(Y ≤ s), ∀t, s ∈ R.

Exemple 1.5.9. Soit Ω = 1 . . . 6 × 1 . . . 6, F = P(Ω), P((i, j)) = 136. On pose

X(ω) = X(ω1, ω2) = ω1, Y (ω) = Y (ω1, ω2) = ω2.

Calculons P(X = i) = P(ω ∈ Ω : ω1 = i) = P(i, 1), . . . , (i, 6)) = 16= P(Y = j).

D’autre part, P(X = i, Y = j) = P((i, j)) = 136

= 16× 1

6= P(X = i)P(Y = j),

donc X et Y sont independantes.

Exemple 1.5.10. SiX(ω) = c, ∀ω ∈ Ω, alorsX⊥Y , ∀Y (une v.a. constante est independantede toute autre v.a.).

Exemple 1.5.11. Si X⊥Y et g, h sont des fonctions boreliennes, alors g(X)⊥h(Y ) ; c’estvrai en particulier si g = h (mais pas X = Y , bien sur !). Cette propriete decoule dufait que g(X) est σ(X)-mesurable (resp. que h(Y ) est σ(Y )-mesurable) et de la definitiond’independance pour les tribus.

Proposition 1.5.12. Soient c ∈ R et X, Y deux v.a. de carre integrable. Si X⊥Y , alors

E(XY ) = E(X)E(Y ) et Var(cX + Y ) = c2Var(X) + Var(Y ),

La premiere egalite dit que si deux v.a. sont independantes, alors elles sont decorrelees ; lareciproque n’est pas vraie.

Proposition 1.5.13. Si X⊥Y et X, Y sont deux v.a. continues possedant une densiteconjointe fX,Y (i.e. P((X,Y ) ∈ B) =

∫∫

B fX,Y (x, y) dx dy, ∀B ∈ B(R2)), alors fX,Y (x, y) =fX(x) fY (y), ∀x, y ∈ R.

1.6 Esperance conditionnelle Cours 3

1.6.1 Conditionnement par rapport a un evenement B ∈ F

Soit A ∈ F : P(A|B) =P(A ∩B)

P(B), si P(B) 6= 0.

Soit X une v.a. integrable (i.e. E(|X|) <∞) : E(X|B) =E(X 1B)

P(B), si P(B) 6= 0.

10

Page 15: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

1.6.2 Conditionnement par rapport a une v.a. discrete Y (a valeurs dansD denombrable)

Soit A ∈ F : P(A|Y ) = ϕ(Y ), ou ϕ(y) = P(A|Y = y), y ∈ D.

Soit X une v.a. integrable : E(X|Y ) = ψ(Y ), ou ψ(y) = E(X|Y = y), y ∈ D.

Remarque 1.6.1. Il est important de voir que soit P(A|Y ), soit E(X|Y ) sont des v.a. !

Exemple 1.6.2. Soient (X1, X2) deux jets de des independants : E(X1 +X2|X2) = ψ(X2),ou

ψ(y) = E(X1 +X2|X2 = y) =E((X1 +X2) 1X2=y)

P(X2 = y)

=E((X1 + y) 1X2=y)

P(X2 = y) =E(X1 + y)P(X2 = y)

P(X2 = y) = E(X1) + y,

donc E(X1 +X2|X2) = E(X1) +X2.

1.6.3 Conditionnement par rapport a une v.a. Y continue ? Cas general ?

P(A|Y ) = ψ(Y ) ou ψ(y) = P(A|Y = y) = ? ? ? Probleme : P(Y = y) = 0.Il vaut mieux generaliser la definition pour une tribu.

1.6.4 Conditionnement par rapport a une tribu GSoient (Ω,F ,P) un espace de probabilite ; X une v.a. F -mesurable telle que E(|X|) <∞ etG une sous-tribu de F .

Theoreme - Definition. Il existe une v.a. Z telle que E(|Z|) <∞ et

i) Z est une v.a. G-mesurable,ii) E(XU) = E(ZU), ∀v.a. U G-mesurable et bornee.

Z est notee E(X|G) et est appelee l’esperance conditionnelle de X par rapport a G.De plus, si Z1 et Z2 verifient (i) et (ii), alors Z1 = Z2 p.s.

Remarque 1.6.3. A cause de cette derniere phrase, l’esperance conditionnelle n’est definiequ’a un “p.s.” pres, c’est-a-dire a un ensemble negligeable pres (qu’on va peu a peu oublier...).

Definition 1.6.4. On pose P(A|G) = E(1A|G) (probabilite conditionnelle par rapport a une tribu),ainsi que E(X|Y ) = E(X|σ(Y )) (esperance conditionnelle par rapport a une variable aleatoire).

11

Page 16: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Remarque 1.6.5. Du fait que toute v.a. U σ(Y )-mesurable et bornee s’ecrit U = g(Y ) avecg borelienne et bornee, on peut definir de maniere equivalente E(X|Y ) comme la v.a. Z quiverifie E(|Z|) <∞ et

i) Z est une v.a. σ(Y )-mesurable,ii) E(Xg(Y )) = E(Z g(Y )), ∀fonction g borelienne et bornee.

Exemple 1.6.6. Soient X,Y deux v.a. aleatoires continues possedant une densite conjointefX,Y . Alors

E(X|Y ) = ψ(Y ) p.s., ou ψ(y) = E(X|Y = y) =1

fY (y)

Rx fX,Y (x, y) dx

et fy(y) =∫

R fX,Y (x, y) dx.

Demonstration. 1) Simplification : on admet que la fonction ψ definie ci-dessus est borelienne.Il en decoule donc directement que ψ(Y ) est une v.a. σ(Y )-mesurable.2) Montrons que E(X g(Y )) = E(ψ(Y ) g(Y )),∀g borelienne bornee :

E(ψ(Y ) g(Y )) =∫

Rψ(y) g(y) fY (y) dy

=∫

R

(

1

fY (y)

Rx fX,Y (x, y) dx

)

g(y) fY (y) dy

=∫ ∫

R2x g(y) fX,Y (x, y) dx dy = E(X g(Y )).

¤

Proprietes de l’esperance conditionnelle (demonstration : cf. exercices)Soient X, Y deux v.a. integrables.- Linearite : E(cX + Y |G) = cE(X|G) + E(Y |G) p.s.- Positivite-monotonie : X ≥ Y p.s. ⇒ E(X|G) ≥ E(Y |G) p.s.- E(E(X|G)) = E(X).- Si X⊥G alors E(X|G) = E(X) p.s.- Si X est G-mesurable, alors E(X|G) = X p.s.- Si Y est G-mesurable et bornee, alors E(XY |G) = E(X|G)Y p.s.- Si H ⊂ G ⊂ F alors E(E(X|H)|G) = E(X|H) = E(E(X|G)|H) p.s.

Proposition 1.6.7. (cf. exercices pour une demonstration simplifiee)Si X⊥G, Y est G-mesurable et ϕ : R×R → R est borelienne et telle que E(|ϕ(X,Y )|) <∞,alors

E(ϕ(X,Y )|G) = ψ(Y ), ou ψ(y) = E(ϕ(X, y)).

12

Page 17: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Inegalite de Jensen (demonstration : cf. meme propriete pour l’esperance)Soient X une v.a., G une sous-tribu de F et ϕ : R → R convexe telle que E(|ϕ(X)|) < ∞.Alors

ϕ(E(X|G)) ≤ E(ϕ(X)|G) p.s.En particulier : |E(X|G)| ≤ E(|X||G) p.s.

Remarque 1.6.8. C’est tres souvent en utilisant les proprietes mentionnees ci-dessus qu’onpeut veritablement calculer une esperance conditionnelle. Le recours a la definition theoriquen’est utile que dans certains cas delicats.

1.7 Convergences de suites de variables aleatoires

Soient (Xn)∞n=1 une suite de v.a. et X une autre v.a., toutes definies sur (Ω,F ,P). Il y a

plusieurs facons de definir la convergence de la suite (Xn) vers X, car X : Ω → R est unefonction.

Convergence en probabilite

XnP→

n→∞ X si ∀ε > 0, limn→∞P(ω ∈ Ω : |Xn(ω)−X(ω)| > ε) = 0.

Convergence presque sure

Xn →n→∞

X p.s. si P(ω ∈ Ω : limn→∞

Xn(ω) = X(ω)) = 1.

Remarque 1.7.1. Si Xn →n→∞ Xp.s., alors Xn

P→n→∞ X.

Le contraire est faux. Donnons un contre-exemple : soit une suite de “pile ou face” independantset equilibres (p. ex. “PFPPPFFP...”). On definit

X1 = 1P =

1 si 1er resultat=pile,0 sinon,

X2 = 1F , X3 = 1PP , X4 = 1PF ,

X5 = 1FP , X6 = 1FF , X7 = 1PPP , X8 = 1PPF . . .

La suite (Xn) converge en probabilite vers 0 car P(|Xn| > ε) = P(Xn = 1) →n→∞ 0.

Mais (Xn) ne converge pas p.s. vers 0, car pour un ω donne, on a p. ex.

(Xn(ω)) = (1, 0, 0, 1, 0, 0, 0, 0, 0, 1, 0, 0 . . . 0 . . . 0, 1, 0, . . .),

Autrement dit, il y a toujours un “1” qui apparaıt et la suite ne converge pas vers 0.

13

Page 18: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Critere pour la convergence presque sure : Xn →n→∞ X p.s. ssi

∀ε > 0, P(ω ∈ Ω : |Xn(ω)−X(ω)| > ε pour une infinite de n) = 0.

Revenons a l’exemple ci-dessus : P(Xn = 1 pour une infinite de n) = 1 6= 0.

Convergence en moyenne (ou convergence L1)

limn→∞E(|Xn −X|) = 0.

Convergence quadratique (ou convergence L2)

limn→∞E(|Xn −X|2) = 0

L’une ou l’autre de ces convergences implique la convergence en probabilite. En effet, on ap.ex. pour tout ε > 0 fixe :

P(|Xn −X| > ε) ≤ E(|Xn −X|2)ε2

→n→∞ 0.

(On a applique ici l’inegalite de Chebychev avec ϕ(x) = x2.)

Lemme de Borel-Cantelli (B-C)Soit (An) une suite d’evenements de F .(a) Si

∑∞n=1 P(An) <∞, alors

P(ω ∈ Ω : ω ∈ An pour une infinite de n) = 0.

(b) Si (An)∞n=1 sont independants et

∑∞n=1 P(An) =∞, alors

P(ω ∈ Ω : ω ∈ An pour une infinite de n) = 1.

Application : Si∑∞

n=1 E(|Xn −X|2) <∞, alors Xn →n→∞ X p.s.

Demonstration.

∞∑

n=1

P(|Xn −X| > ε) ≤ 1

ε2

∞∑

n=1

E(|Xn −X|2) <∞, ∀ε > 0 fixe.

D’apres B-C (a), on a alors ∀ε > 0 fixe,

P(ω ∈ Ω : |Xn(ω)−X(ω)| > ε pour une infinite de n = 0.

Par le critere enonce ci-dessus, Xn →n→∞ X p.s. ¤

14

Page 19: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Loi des grands nombres (LGN)Soient (Xn)

∞n=1 une suite de v.a. independantes et identiquement distribuees (i.i.d.)

et Sn = X1 + . . .+Xn. Si E(|X1|) <∞, alors

(a) Loi faible :Sn

nP→

n→∞E(X1).

(b) Loi forte :Sn

n→

n→∞ E(X1) p.s.

Remarque 1.7.2. Si on supprime l’hypothese que E(|X1|) <∞, alors les choses changent :

(a) Si lima→∞ a P(|X1| > a) = 0, alorsSn

n− E(X1 · 1|X1|≤n)

P→n→∞ 0.

(b) Si E(|X1|) =∞, alorsSn

ndiverge p.s. lorsque n→∞.

Exemple 1.7.3. Soit (Xn) une suite de pile (1) ou face (0) independants et equilibres. Dufait que E(X1) =

12<∞, on a par la loi forte des grands nombres :

Sn

n→ 1

2p.s., i.e. Sn '

n

2.

Question : quelle est la deviation moyenne de Sn − n2?

Convergence en loiSoient (Xn) une suite de v.a. (definies sur (Ω,F ,P)) et (FXn

) la suite des fonctions derepartition correspondantes (FXn

(t) = P(Xn ≤ t), t ∈ R). Xn converge en loi vers X(“Xn ⇒

n→∞ X”) si limn→∞ FXn(t) = FX(t), ∀ t ∈ R point de continuite de FX .

Theoreme central limite (TCL)Soit (Xn)

∞n=1 une suite de v.a. i.i.d. telle que E(X1) = µ ∈ R et Var(X1) = σ2 > 0. Soit

Sn = X1 + . . .+Xn. Alors

Sn − nµ√nσ

⇒n→∞ Z ∼ N (0, 1), i.e. P

(

Sn − nµ√nσ

≤ t

)

→n→∞

∫ t

−∞

1√2π

e−x2

2 dx = Φ(t), ∀t ∈ R.

(NB : la fonction de repartition Φ de la loi N (0, 1) est continue sur tout R.)

Exemple 1.7.4. Soit (Xn)∞n=1 la suite de pile ou face independants et equilibres consideree

ci-dessus : E(X1) =12et Var(X1) =

14, donc

Sn − n2√

n 12

⇒ Z ∼ N (0, 1), i.e. Sn 'n

2+

√n

2Z

La reponse a la question posee ci-dessus est donc que la deviation est d’ordre√n.

15

Page 20: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

1.8 Processus aleatoire a temps discret Cours 4

Marche aleatoire symetrique sur ZSoit (Xn)

∞n=1 une suite de v.a. i.i.d. telle que P(X1 = +1) = P(X1 = −1) = 1

2.

Soient S0 = 0, Sn = X1 + . . .+Xn. Le processus (Sn, n ∈ N) est appele la marche aleatoiresymetrique sur Z.

Deux points de vue possibles :

(Sn, n ∈ N) est une famille de v.a. a valeurs dans Z,

S :

Ω→ suites (zn, n ∈ N) a valeurs dans Z,ω 7→ S(ω) = (Sn(ω), n ∈ N) = suite aleatoire.

Remarque 1.8.1. E(X1) = 0⇒ E(Sn) = 0.Var(X1) = E(X2

1 ) = 1⇒ Var(Sn) =∑n

i=1Var(Xi) = n.

Loi des grands nombres :Sn

n→ 0 p.s.

Theoreme central limite :Sn√n⇒ Z ∼ N (0, 1) (i.e. Sn '

√nZ).

Generalisations :- Marche aleatoire asymetrique sur Z : Sn = X1 + . . . + Xn, Xi i.i.d., P(X1 = +1) =1− P(X1 = −1) = p 6= 1/2.- Marche aleatoire a valeurs dans R : Sn = X1 + . . .+Xn, Xi i.i.d., X1 ∼ N(0, 1) (p.ex.).- Temps continu : mouvement brownien (voir section 2).

Chaıne de MarkovProcessus aleatoire a temps discret (Mn, n ∈ N) a valeurs dans un ensemble D denombrable(appele espace des etats) tel que

P(Mn+1 = xn+1|Mn = xn,Mn−1 = xn−1 . . .M0 = x0) = P(Mn+1 = xn+1|Mn = xn),

∀n ≥ 1, x0 . . . xn+1 ∈ D (c’est un processus qui “oublie” son histoire au fur et a mesure).

Chaıne de Markov stationnaireChaıne de Markov telle que P(Mn+1 = y|Mn = x) = Q(x, y) pour tout n ∈ N, x, y ∈ D.Q(x, y) est appelee la probabilite de transition de x a y.La probabilite definie par µ(x) = P(M0 = x), x ∈ D, est appelee la loi initiale.

µ et Q caracterisent entierement la chaıne de Markov (dans le cas stationnaire).En effet, on verifie que :

P(Mn = xn, . . . ,M0 = x0) = µ(x0)Q(x0, x1) · · ·Q(xn−1, xn).

16

Page 21: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Exemple 1.8.2. La marche aleatoire symetrique ou asymetrique sur Z est une chaıne deMarkov stationnaire. Soit effectivement S0 = 0, Sn = X1 + . . . + Xn, avec Xi i.i.d. etP(X1 = 1) = p = 1− P(X1 = −1) :

P(Sn+1 = y|Sn = x, Sn−1 = xn−1 . . . S0 = x0) =P(Sn+1 = y, Sn = x, . . . S0 = x0)

P(Sn = x, Sn−1 = xn−1 . . . S0 = x0)= (∗)

Par definition, Sn+1 = X1 + . . .+Xn +Xn+1 = Sn +Xn+1, i.e. Xn+1 = Sn+1 − Sn, donc

(∗) = P(Xn+1 = y − x, Sn = x . . . S0 = x0)

P(Sn = x . . . S0 = x0).

Or Xn+1⊥Sn, Sn−1 . . . S0 (du fait que les (Xi) sont i.i.d.), donc

(∗) = P(Xn+1 = y − x)P(Sn = x . . . S0 = x0)

P(Sn = x . . . S0 = x0)= P(Xn+1 = y − x) = Q(x, y),

ou

Q(x, y) =

p si y − x = +1,1− p si y − x = −1,0 sinon.

On montre de la meme maniere que P(Sn+1 = y|Sn = x) = Q(x, y). D’autre part, on a (maisceci n’est pas necessaire a la demonstration) :

µ(x) = P(S0 = x) =

1 si x = 0,0 si x 6= 0.

Martingale

Definition 1.8.3. Soit (Ω,F ,P) un espace de probabilite.- Une filtration est une famille (Fn, n ∈ N) de sous-tribus de F tq Fn ⊂ Fn+1, ∀n ∈ N.- Un processus aleatoire a temps discret (Xn, n ∈ N) est adapte a la filtration (Fn, n ∈ N)si Xn est Fn-mesurable ∀n ∈ N.- La filtration naturelle d’un processus (Xn, n ∈ N) est donnee par (FX

n , n ∈ N), ou FXn =

σ(Xi, 0 ≤ i ≤ n).

Definition 1.8.4. - Une sous-martingale (resp. sur-martingale) est un processus (Mn, n ∈N) adapte a une filtration (Fn, n ∈ N) tel que

i) E(|Mn|) <∞, n ∈ N,ii) E(Mn+1|Fn) ≥Mn p.s. (resp. E(Mn+1|Fn) ≤Mn p.s.), ∀n ∈ N.

- Une martingale est un processus qui est a la fois une sous-martingale et une sur-martingale(i.e. un processus qui verifie (i) et l’egalite au point (ii)).

17

Page 22: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Remarque 1.8.5. - La notion de martingale equivaut a celle de “jeu honnete” (s’il esttoutefois possible de parler de jeu honnete losqu’on parle de jeu d’argent...) : a l’instant n(ou l’on dispose de l’information Fn), l’esperance de la somme possedee l’instant d’apres estegale a la somme dont on dispose a l’instant present.

- Les appellations “sous-martingale” et “sur-martingale” sont contre-intuitives : une sous-martingale est un processus qui a tendance a monter (jeu favorable), une sur-martingale estun processus qui tendance a descendre (jeu defavorable).

Proposition 1.8.6. (demonstration : cf. exercices)Soit (Mn, n ∈ N) une martingale. Alors ∀m,n ∈ N,

E(Mn+m|Fn) = Mn p.s. E(Mn+1 −Mn|Fn) = 0 p.s.,

E(Mn+1) = E(E(Mn+1|Fn)) = E(Mn) = . . . = E(M0).

Exemple 1.8.7. Soit (Sn, n ∈ N) une marche aleatoire symetrique a valeurs dans Z ou R,i.e. S0 = 0, Sn = X1 + . . .+Xn, avec Xi i.i.d. et E(X1) = 0. On pose

F0 = ∅,Ω (la tribu triviale) et Fn = σ(Xi, 1 ≤ i ≤ n) ∀n ≥ 1.

Alors (Sn, n ∈ N) est une martingale par rapport a (Fn, n ∈ N). En effet :

(0) Sn est Fn-mesurable, ∀n ∈ N.(i) E(|Sn|) ≤

∑ni=1 E(|Xi|)) <∞.

(ii) E(Sn+1|Fn) = E(Sn|Fn) + E(Xn+1|Fn) = Sn + E(Xn+1) = Sn p.s.

(Dans cette serie d’egalites, on a utilise successivement : le fait que Sn+1 = Sn + Xn+1 etla linearite de l’esperance conditionnelle, le fait que Sn est Fn-mesurable et que Xn+1 estindependante de Fn, et finalement l’hypothese que les v.a. Xn sont toutes centrees.)

Exemple 1.8.8. Si on reprend l’exemple ci-dessus en supposant cette fois que E(X1) > 0(marche asymetrique), alors (Sn) devient une sous-martingale.

Proposition 1.8.9. Soit (Mn) une martingale par rapport a (Fn) et ϕ : R → R convexetelle que E(|ϕ(Mn)|) < ∞, ∀n ∈ N. Alors (ϕ(Mn)) est une sous-martingale (par rapport a(Fn)). En particulier, (M 2

n) est une sous-martingale.

Demonstration. Par l’inegalite de Jensen (pour l’esperance conditionnnelle), on a

E(ϕ(Mn+1)|Fn) ≥ ϕ(E(Mn+1|Fn)) = ϕ(Mn) p.s.,

ce qui prouve la proriete (ii). Les autres verifications sont triviales. ¤

18

Page 23: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Definition 1.8.10. Un temps d’arret par rapport a (Fn) est une v.a. T a valeurs dansN ∪ +∞ telle que T ≤ n ∈ Fn, ∀n ∈ N.

Exemple 1.8.11. Si (Xn) est un processus adapte a (Fn), alors pour tout a ∈ R, la v.a. Ta

definie parTa = infn ∈ N : Xn ≥ a,

est un temps d’arret, car

Ta ≤ n = ∃i ∈ 0, . . . , n tel que Xi ≥ a = ∪ni=0Xi ≥ a ∈ Fn,

car chaque evenement Xi ≥ a ∈ Fi ⊂ Fn, du fait que le processus (Xn) est adapte et quei ≤ n.

Definition 1.8.12. Soit (Xn) un processus adapte a une filtration (Fn) et T un temps d’arret(p.r. a (Fn)). On pose

XT (ω) = XT (ω)(ω) =∑

n∈NXn(ω) 1T=n(ω),

FT = A ∈ F : A ∩ T ≤ n ∈ Fn, ∀n ∈ N.

Remarque 1.8.13. Bien que sa definition soit peu explicite, la tribu FT represente simple-ment l’information dont on dispose au temps aleatoire T .

Theoreme d’arretSoient (Mn) une martingale par rapport a (Fn) et T1, T2 deux temps d’arret tels que 0 ≤T1(ω) ≤ T2(ω) ≤ N <∞, ∀ω ∈ Ω. Alors

E(MT2|FT1) =MT1 p.s., et donc E(MT2) = E(MT1).

En particulier si 0 ≤ T (ω) ≤ N, ∀ω ∈ Ω, alors E(MT ) = E(M0).

Remarque 1.8.14. Ce theoreme reste vrai pour une sous-martingale ou une sur-martingale(avec les inegalites correspondantes).

Pour la demonstration, on aura besoin du lemme suivant :

Lemme 1.8.15. Y est une v.a. FT -mesurable ssi Y 1T=n est une v.a. Fn-mesurable ∀n.

Demonstration. (theoreme d’arret)- Demontrons tout d’abord que si T est un temps d’arret tel que 0 ≤ T (ω) ≤ N, ∀ω ∈ Ω,alors

E(MN |FT ) =N∑

n=0

Mn 1T=n =MT p.s. (1)

19

Page 24: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Appelons Z le terme du milieu de l’equation ci-dessus. Pour verifier que E(MN |FT ) = Z, ilfaut verifier les deux points de la definition de l’esperance conditionnelle :

(i) Z est FT -mesurable : effectivement, Z 1T=n =Mn 1T=n est Fn-mesurable ∀n, donc parle lemme, Z est FT -mesurable.

(ii) E(Z U) = E(MN U), ∀ v.a. U FT -mesurable et bornee :

E(Z U) =N∑

n=0

E(Mn 1T=n U)(a)=

N∑

n=0

E(E(MN |Fn) 1T=n U)(b)=

N∑

n=0

E(MN 1T=n U)

= E(MN U),

car (a) : (Mn) est une martingale et (b) : 1T=n U est Fn-mesurable par le lemme.

- En utilisant (1) avec T = T1 et T = T2 succesivement, on trouve donc que

MT1 = E(MN |FT1)(c)= E(E(MN |FT2)|FT1) = E(MT2|FT1) p.s.,

ou (c) decoule du fait que FT1 ⊂ FT2 (car T1 ≤ T2). ¤

Integrale stochastique discrete

Definition 1.8.16. Un processus (Hn, n ∈ N) est dit previsible (par rapport a une filtration(Fn, n ∈ N)) si H0 = 0 et Hn est Fn−1-mesurable ∀n ≥ 1.

Soit (Hn) un processus previsible et (Mn) une martingale. On pose I0 = 0 et

In = (H ·M)n =n∑

i=1

Hi (Mi −Mi−1), n ≥ 1.

In represente le gain effectue au temps n en appliquant la strategie (Hn) sur le jeu (Mn) ;Hn represente la mise au temps n, qui ne doit logiquement dependre que des observationspassees (la tribu Fn−1), sinon il y a delit d’initie (i.e. on a une information sur le futur duprocessus).

Proposition 1.8.17. Si Hn est une v.a. bornee (i.e. |Hn(ω)| ≤ Kn, ∀ω ∈ Ω) ∀n ≥ 1, alorsle processus (In) est une martingale par rapport a (Fn).

Demonstration. Il est clair que In est Fn-mesurable ∀n ∈ N. D’autre part, on a

E(|In|) ≤n∑

n=1

E(|Hi · (Mi −Mi1)|) ≤n∑

i=1

Ki (E(|Mi|) + E(|Mi+1|)) <∞,

E(In+1|Fn) = E(In|Fn) + E(Hn+1 (Mn+1 −Mn)|Fn) = In +Hn+1 E(Mn+1 −Mn|Fn) = In p.s.

ce qui prouve les points (i) et (ii) de la definition d’une martingale. ¤

20

Page 25: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Remarque 1.8.18. Une reciproque a cette proposition existe : cf. exercices.

Application : Soit (Mn) la marche aleatoire symetrique sur Z (Mn = X1 + . . .+Xn,P(X1 = +1) = P(Xn = −1) = 1/2). On pose

H0 = 0, H1 = 1, Hn+1 =

2Hn si X1 = . . . = Xn = −1,0 des que Xn = +1.

Alors In =∑n

i=1Hi (Mi−Mi−1) =∑n

i=1HiXi est une martingale par la proposition ci-dessus(chacune des v.a. Hi est clairement bornee). En particulier E(In) = E(I0) = 0. On definit letemps d’arret

T = infn ≥ 1 : Xn = +1.Il est alors facile de voir que IT = 1, donc E(IT ) = 1 6= E(I0) = 0 ? ? ?Effectivement, le theoreme d’arret mentionne ci-dessus ne s’applique pas ici car T n’est pasborne (en d’autres mots, en appliquant la strategie (Hn), on est sur de gagner un franc autemps T , mais le prix a payer est que ce temps T peut etre arbitrairement grand, et doncqu’on risque de perdre toute notre fortune avant de gagner ce franc).

1.9 Vecteur aleatoire Cours 5

Definition 1.9.1. Un vecteur aleatoire (de dimension n ≥ 1) est une application

X :

Ω→ Rn

ω 7→ X(ω) = (X1(ω), . . . , Xn(ω))telle que

ω ∈ Ω : X(ω) ∈ B ∈ F , ∀B ∈ B(Rn).

Proposition 1.9.2. X est un vecteur aleatoire ssi

ω ∈ Ω : X1(ω) ≤ t1, . . . , Xn(ω) ≤ tn ∈ F , ∀t1, . . . , tn ∈ R.

Remarque 1.9.3. Si X est un vecteur aleatoire, alors chaque Xi est une v.a. aleatoire, maisla reciproque n’est pas vraie.

Deux types particuliers de vecteurs aleatoiresA) Vecteur aleatoire discret : X prend ses valeurs dans un ensemble denombrable D.

B) Vecteur aleatoire continu : P(X ∈ B) = 0 si |B| = 0. Sous cette condition, le theoremede Radon-Nikodym assure l’existence d’une fonction borelienne fX : Rn → R (appeleedensite conjointe) telle que fX(x1, . . . , xn) ≥ 0,

RnfX(x1, . . . , xn) dx1 · · · dxn = 1 et P(X ∈ B) =

BfX(x1, . . . , xn) dx1 · · · dxn.

21

Page 26: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Remarque 1.9.4. A) X est un vecteur aleatoire discret ssi chaque Xi est une v.a. discrete.B) Si X est un vecteur aleatoire continu, alors chaque Xi est une v.a. aleatoire continue,mais la reciproque n’est pas vraie : soit U est une v.a. continue ; alors le vecteur aleatoireX = (U,U) n’est pas un vecteur aleatoire continu, car pour B = (x, y) ∈ R2 : x = y, on aP(X ∈ B) = 1 alors que |B| = 0.

Esperance et matrice de covariance d’un vecteur aleatoireSoit X un vecteur aleatoire (tel que Xi est une v.a. de carre integrable, ∀i ∈ 1, . . . , n).Alors

i) E(X) = (E(X1) . . .E(Xn)),ii) Cov(X) = Q ou Q est une matrice n× n, Qij = Cov(Xi, Xj) = E(XiXj)− E(Xi)E(Xj).

Proposition 1.9.5. i) Qij = Qji (i.e. Q est symetrique),ii)

∑ni,j=1 ci cj Qij ≥ 0, ∀c1 . . . cn ∈ R (i.e. Q est definie positive).

Demonstration. La symetrie est claire. La seconde propriete decoule du fait que

n∑

i,j=1

ci cj Qij =n∑

i,j=1

ci cj Cov(Xi, Xj) = Cov

n∑

i=1

ciXi,n∑

j=1

cj Xj

= Var

(

n∑

i=1

ciXi

)

≥ 0.

(On a utilise ici la bilinearite de la covariance.) ¤

Rappel : Une matrice symetrique Q est definie positive ssi toutes ses valeurs propres sontpositives (i.e. ≥ 0).

Proposition 1.9.6. Si (X1 . . . Xn) sont des v.a. independantes et de carre integrable,alors X = (X1, . . . , Xn) est un vecteur aleatoire et Cov(X) est une matrice diagonale(i.e. Cov(Xi, Xj) = 0, ∀i 6= j).

Vecteur aleatoire gaussien

Convention : si Y (ω) ≡ c, alors on dit par abus de langage que Y est une v.a. gaussienne(de moyenne c et de variance nulle) et on note Y ∼ N (c, 0).

Definition 1.9.7. Un vecteur aleatoire X = (X1, . . . , Xn) est dit gaussien si ∀c1, . . . , cn ∈ R,la v.a. c1X1 + . . .+ cnXn est une v.a. gaussienne.

Exemple 1.9.8. Si X1, . . . , Xn sont independantes et gaussiennes, alors X = (X1, . . . , Xn)est un vecteur gaussien.

Proposition 1.9.9. Soit X un vecteur aleatoire gaussien. Alors les v.a. X1, . . . , Xn sontindependantes ssi la matrice Cov(X) est diagonale.

22

Page 27: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Remarque 1.9.10. - Il n’est pas obligatoire qu’un vecteur forme de deux v.a. gaussiennesX1 et X2 soit un vecteur gaussien.- De la meme maniere, il n’est pas vrai que deux v.a. gaussiennes decorrelees sont toujoursindependantes (cf. exercices).

Notation : Si X est un vecteur gaussien de moyenne m et de (matrice de) covariance Q, onnote X ∼ N (m,Q).

Definition 1.9.11. Soit X un vecteur aleatoire gaussien de dimension n, moyenne m etcovariance Q. X est dit degenere si rang(Q) < n.

Rappel : Une matrice symetrique Q verifie :

rang(Q) < n ssi Q est non-inversible ssi det(Q) = 0

ssi Q admet au moins une valeur propre nulle.

NB : rang(Q) = nombre de valeurs propres non-nulles.

Proposition 1.9.12. Soit X un vecteur aleatoire gaussien non-degenere de dimension n,moyenne m et covariance Q. Alors X un vecteur aleatoire continu dont la densite conjointefX est donnee par

fX(x1, . . . , xn) =1

(2π)n detQexp

−1

2

n∑

i,j=1

(xi −mi)(Q−1)ij(xj −mj)

.

NB : det(Q) 6= 0 et Q−1 existe par hypothese.

Proposition 1.9.13. (decomposition de Karhunen-Lowe)Soit X un vecteur aleatoire gaussien de dimension n, moyenne m et covariance Q. Soitk = rang(Q) ∈ 1, . . . , n. Alors il existe k v.a. U1, . . . , Uk i.i.d. ∼ N (0, 1) et des nombresreels (αij)

n,ki,j=1 tels que

Xi =k∑

j=1

αij Uj, ∀j ∈ 1, . . . , n.

En mots, cette proposition dit qu’un vecteur gaussien dont la matrice de covariance est derang k peut toujours s’exprimer en termes de k variables gaussiennes independantes. Cettedecomposition correspond a la decomposition de la matrice Q dans la base de ses vecteurspropres (associes aux valeurs propres non-nulles).

23

Page 28: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

2 Calcul stochastique

2.1 Processus aleatoire a temps continu

Definition 2.1.1. Un processus aleatoire a temps continu est une famille de v.a. (Xt, t ∈R+) definie sur (Ω,F ,P). On peut egalement le voir comme une fonction aleatoire :

X :

Ω→ fonctions de R+ dans Rω 7→ t 7→ Xt(ω)

Remarque 2.1.2. Pour caracteriser une v.a. X, il suffit de donner sa loi P(X ≤ x), ∀x ∈ R.Que faut-il pour caracteriser un processus (Xt, t ∈ R+) ?

- 1ere idee : donner P(Xt ≤ x), ∀t ∈ R+, x ∈ R.

Ca n’est pas suffisant : si on demande p.ex. que Xt ∼ N (0, t), ∀t ∈ R+, alors X(1)t =

√t Y , ou

Y ∼ N(0, 1) et X(2)t = mouvement brownien (voir plus loin) satisfont tous deux la condition

ci-dessus, mais ces deux processus ne se ressemblent pas du tout !

- 2eme idee : donner P(Xt ≤ x, Xs ≤ y), ∀t, s ∈ R+, x, y ∈ R.Ca n’est pas suffisant non plus...

- n-eme idee : donner P (Xt ≤ x1, . . . , Xtn ≤ xn), ∀n ≥ 1, t1 . . . tn ∈ R+, x1 . . . xn ∈ R.C’est suffisant, mais a-t-on toujours besoin de toutes ces informations pour caracteriser unprocessus ?

Definition 2.1.3. Les v.a. Xt−Xs, t > s ≥ 0, sont appelees des accroissements du processus(Xt).

2.1.1 Processus a accroissements independants et stationnnaires

(Independance) : (Xt −Xs)⊥FXs = σ(Xr, 0 ≤ r ≤ s), ∀t > s ≥ 0.

(Stationnarite) : Xt −Xs ∼ Xt−s −X0, ∀t > s ≥ 0.

Pour de tels processus, donner la loi de Xt − X0, ∀t > 0, ainsi que celle de X0 suffit acaracteriser entierement le processus.

Citons encore une definition dont nous avons besoin pour definir le mouvement brownien.

Definition 2.1.4. Un processus (Xt) est appele un processus a trajectoires continues (ousimplement processus continu) si P(ω ∈ Ω : t 7→ Xt(ω) est continue) = 1.

Attention : ne pas confondre “processus a temps continu” (=notion generale) et “processuscontinu” (=processus a trajectoires continues).

24

Page 29: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

2.1.2 Mouvement brownien standard

Definition 2.1.5. (1ere caracterisation du mouvement brownien standard)Un mouvement brownien standard (abrege m.b.s.) est un processus aleatoire a temps continu(Bt, t ∈ R+) tel que

i) B0 = 0 p.s.,ii) (Bt) est a accroissements independants et stationnaires,iii) Bt ∼ N (0, t), ∀t > 0,iv) (Bt) est a trajectoires continues.

Remarque 2.1.6. De cette definition, il suit que pour t ≥ s ≥ 0,

Bt −Bs ∼ Bt−s ∼ N (0, t− s), i.e. E(Bt −Bs) = 0 et E((Bt −Bs)2) = t− s.

En appliquant la loi des grands nombres, on trouve encore que Bt

t→ 0 p.s. lorsque t→∞.

De plus, on a Bt√t∼ N (0, 1), pour tout t > 0 (pas besoin par contre du TCL pour le prouver !).

On voit donc que le m.b.s. est bien une generalisation a temps continu de la marche aleatoiresymetrique sur Z.

Il existe plusieurs manieres de construire un mouvement brownien standard. Citons troisd’entre elles.

I. Construction de KolmogorovUn theoreme d’existence general (le “theoreme de Kolmogorov”) implique qu’il existe unprocessus (Bt) qui verifie (i) - (iii). A priori, il n’est pas clair que ce processus possede destrajectoires continues, mais un second theoreme (baptise “critere de continuite de Kolmogo-rov”) permet de montrer que

E(|Bt −Bs|2p) ≤ Cp|t− s|p, ∀p ≥ 1, ⇒ ∃(Bt) tel que P(Bt = Bt) = 1, ∀t ∈ R,et (Bt) est a trajectoires continues.

Le processus (Bt) est donc un m.b.s. Cette “construction” a le desavantage de ne pas etreexplicite, contrairement aux deux suivantes.

II. Principe d’invariance de DonskerSoit S0 = 0, Sn = X1 + . . . + Xn, la marche aleatoire symetrique sur Z (avec Xi i.i.d. etP(Xi = +1) = P(Xi = −1) = 1

2).

Rappel : par le TCL, Sn√n⇒

n→∞ Z ∼ N (0, 1).

25

Page 30: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Soit Yt = S[t] + (t− [t])X[t]+1 (i.e. si t = n+ ε, alors Yt = Sn + εXn+1). On pose B(n)t = Ynt√

n.

Supposons pour simplifier que nt ∈ N. Alors on a

B(n)t =

Snt√n=√tSnt√nt

⇒n→∞

√t Z ∼ N (0, t), car Z ∼ N (0, 1),

ce qui veut dire queP(B(n)t ≤ x) →

n→∞ P(Bt ≤ x).

On peut montrer de maniere similaire que ∀m ≥ 1, t1, . . . , tm ∈ R+, x1, . . . , xm ∈ R,

P(B(n)t1 ≤ x1, . . . , B(n)tm ≤ xm) →

n→∞ P(Bt1 ≤ x1, . . . , Btm ≤ xm),

i.e. que la suite de processus (B(n)t ) converge en loi vers le m.b.s. (Bt).

III. Construction par serie de FourierSoit t ∈ [0, π]. On pose

Bt =

√8

π

∞∑

n=1

sin(nt)

nξn,

ou (ξn) est une suite de v.a. i.i.d. ∼ N (0, 1). Alors Bt est une v.a. gaussienne (car c’est unesomme de v.a. gaussiennes independantes), E(Bt) = 0 et

E(B2t ) =8

π2

∞∑

n,m=1

sin(nt)

n

sin(mt)

nE(ξn ξm) =

8

π2

∞∑

n=1

(sin(nt))2

n2= t.

On peut egalement verifier que le processus (Bt) ainsi defini a toutes les proprietes d’unm.b.s. A l’aide de cette troisieme construction, effectuons un petit calcul (formel) :

∂Bt

∂t=

√8

π

∞∑

n=1

∂t

(

sin(nt)

n

)

ξn =

√8

π

∞∑

n=1

cos(nt) ξn.

La v.a. ∂Bt

∂test donc une v.a. gaussienne (car c’est une somme de v.a. gaussiennes independantes),

mais

E

(

∂Bt

∂t

)2

=8

π2

∞∑

n=1

(cos(nt))2 =∞.

Il y a donc une contradiction, car une v.a. gaussienne ne peut pas avoir une variance infinie.En conclusion, la v.a. ∂Bt

∂tn’est pas bien definie, i.e. la fonction t 7→ Bt est continue mais pas

derivable. On reverra ceci de maniere plus rigoureuse ci-apres.

Remarque 2.1.7. Il est toutefois possible de definir la derivee du mouvement brownien “ausens des distributions” ; l’objet representant la derivee est appele “bruit blanc”.

26

Page 31: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Transformations du mouvement brownien standard (cf. exercices)Soit (Bt, t ∈ R+) un mouvement brownien standard. Alors les cinq processus ci-dessous sontegalement des mouvements browniens standard :

1) B(1)t = −Bt, t ∈ R+ ( ↔ propriete de symetrie du mouvement brownien) ;

2) soit T ∈ R+ fixe : B(2)t = Bt+T −BT , t ∈ R+ (↔ stationnarite) ;

3) soit T ∈ R+ fixe : B(3)t = BT −BT−t, t ∈ [0, T ] (↔ renversement du temps) ;

4) soit a > 0 fixe : B(4)t = 1√

aBat, t ∈ R+ (↔ loi d’echelle) ;

5) B(5)t = tB 1

t, t > 0 et B

(5)0 := 0 (↔ inversion du temps).

A cause de la propriete 4), on appelle le mouvement brownien standard un “fractal aleatoire”ou encore un “processus auto-similaire”, i.e. un processus qui garde le meme aspect adifferentes echelles.

2.1.3 Processus gaussien

Definition 2.1.8. Un processus gaussien est un processus (Xt, t ∈ R+) tel que (Xt1 , . . . , Xtn)est un vecteur aleatoire gaussien ∀n ≥ 1 et t1, . . . , tn ∈ R+. Ceci revient a dire que c1Xt1 +. . .+ cnXtn est une v.a. gaussienne ∀n ≥ 1, t1, . . . , tn ∈ R+ et c1, . . . , cn ∈ R.

Pour un vecteur aleatoire (pas forcement gaussien), on definit encore :- La fonction m : R+ → R donnee par m(t) = E(Xt) et appelee la moyenne du processus.- La fonction K : R+ × R+ → R donnee par K(t, s) = Cov(Xt, Xs) et appelee la covariancedu processus.

Proposition 2.1.9. (valide pour tout processus aleatoire)K est symetrique : K(t, s) = K(s, t), ∀s, t ∈ R+.K est definie positive :

∑ni,j=1 ci cj K(ti, tj) ≥ 0, ∀n ≥ 1, c1, . . . , cn ∈ R, t1, . . . , tn ∈ R+.

La demonstration de cette proposition est identique a celle donnee pour un vecteur aleatoire.

Proposition 2.1.10. (Kolmogorov)Etant donne m : R+ → R et K : R+ × R+ → R symetrique et definie positive, il existeun processus gaussien (Xt, t ∈ R+) de moyenne m et de covariance K. De plus, m et Kcaracterisent entierement le processus (Xt).

Proposition 2.1.11. (2eme caracterisation du mouvement brownien standard)Un mouvement brownien standard (Bt, t ∈ R+) est un processus a trajectoires continues etgaussien avec moyenne m(t) = 0 et covariance K(t, s) = t ∧ s = min(t, s).

27

Page 32: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Demonstration. Il faudrait verifier que c1Bt1 + . . .+ cnBtn est une v.a. gaussienne.Verifions seulement que Bt +Bs est gaussienne : Bt +Bs = (Bt−Bs) + 2Bs, c’est donc unev.a. gaussienne, car la somme de deux v.a. gaussiennes independantes est encore gaussienne.Soit maintenant t ≥ s ≥ 0 :

m(t) = E(Bt) = 0,

K(t, s) = Cov(Bt, Bs) = E(BtBs) = E((Bt −Bs +Bs)Bs)

= E((Bt −Bs)Bs) + E(B2s ) = 0 + s,

car (Bt −Bs)⊥Bs. On a donc K(t, s) = min(t, s). ¤

2.1.4 Processus de Markov Cours 6

Processus (Xt, t ∈ R+) tel que

E(f(Xt)|FXs ) = E(f(Xt)|Xs) p.s.,

pour tout t > s ≥ 0 et pour toute fonction f : R → R borelienne et bornee (NB :FX

s = σ(Xr, r ≤ s)).

En particulier, si f(x) = 1B(x) avec B ∈ B(R), alors P(Xt ∈ B|FXs ) = P(Xt ∈ B|Xs).

Proposition 2.1.12. Le mouvement brownien standard (Bt, t ∈ R+) est un processus deMarkov.

Demonstration. En utilisant le fait que (Bt−Bs)⊥Bs, Bs est FBs -mesurable et la proposition

1.6.7, on obtient

E(f(Bt)|FBs ) = E(f(Bt −Bs +Bs)|FB

s ) = ψ(Bs) p.s.,

ou ψ(y) = E(f(Bt − Bs + y)). Un calcul identique montre que E(f(Bt)|Bs) = ψ(Bs) p.s. etdonc la propriete de Markov est demontree. ¤

Remarque 2.1.13. De la demonstration ci-dessus, on deduit que

E(f(Bt)|FBs ) = ψ(Bs) p.s., ou ψ(y) = E(f(X + y)),

avec X ∼ N (0, t− s). Ceci montre qu’une expression a priori compliquee faisant intervenirune esperance conditionnelle d’une fonction du mouvement brownien peut se reduire a unesimple esperance d’une fonction d’une loi gaussienne.

28

Page 33: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

2.1.5 Martingale a temps continu

Definition 2.1.14. Soit (Ω,F ,P) un espace de probabilite.- Une filtration est une famille (Ft, t ∈ R+) de sous-tribus de F tq Fs ⊂ Ft, ∀t ≥ s ≥ 0.- Un processus (Xt) est adapte a (Ft) si Xt est Ft-mesurable ∀t ≥ 0.- La filtration naturelle d’un processus (Xt, t ∈ R+) est donnee par (FX

t , t ∈ R+), ou FXt =

σ(Xs, 0 ≤ s ≤ t).

Definition 2.1.15. Un processus (Mt) adapte a (Ft) tel que

i) E(|Mt|) <∞, ∀t ≥ 0,ii) E(Mt|Fs) =Ms p.s., ∀t > s ≥ 0,

est appele une martingale (a temps continu). On definit de maniere similaire une sous-martingale et une sur-martingale (a temps continu), avec les inegalites correspondantes.

Proposition 2.1.16. Le mouvement brownien standard (Bt, t ∈ R+) est une martingale parrapport a sa filtration naturelle (FB

t , t ∈ R+).

Demonstration. i) Par Cauchy-Schwarz, on a E(|Bt|) ≤√

E(B2t ) =√t <∞, ∀t ≥ 0.

ii) ∀t > s ≥ 0, on a E(Bt|FBs ) = E(Bt −Bs|FB

s ) + E(Bs|FBs ) = E(Bt −Bs) +Bs = Bs. ¤

Remarque 2.1.17. Pour des raisons techniques, on a parfois besoins “d’augmenter” lafiltration naturelle (FB

t ). On ne rentrera pas dans ces details dans ce cours.

Proposition 2.1.18. (demonstration : cf. exercices)Les processus suivants sont des martingales par rapport a (FB

t ) :

i) Mt = B2t − t,ii) Nt = exp(Bt − t

2).

Theoreme de Levy (3eme caracterisation du mouvement brownien standard)Soit (Xt) un processus a trajectoires continues, adapte a une filtration (Ft) et tel que

i) (Xt) est une martingale par rapport a (Ft),ii) (X2

t − t) est une martingale par rapport a (Ft),

Alors (Xt) est un mouvement brownien standard.

Definition 2.1.19. Soit (Ft, t ∈ R+) une filtration.- Un temps d’arret T par rapport a (Ft) est une v.a. T a valeurs dans R+ ∪ +∞ telle queT ≤ t ∈ Ft, ∀t ∈ R+.- On definit

FT = A ∈ F : A ∩ T ≤ t ∈ Ft, ∀t ∈ R+.- Si (Xt) est un processus adapte a la filtration (Ft), on pose XT (ω) = XT (ω)(ω).

29

Page 34: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Theoreme d’arretSoient (Mt) une martingale continue (par rapport a (Ft)) et T1, T2 deux temps d’arret telsque 0 ≤ T1(ω) ≤ T2(ω) ≤ K <∞, ∀ω ∈ Ω. Alors

E(MT2 |FT1) =MT1 p.s. et donc E(MT2) = E(MT1).

En particulier, si 0 ≤ T (ω) ≤ K, ∀ω, alors E(MT ) = E(M0).

Remarque 2.1.20. - Bien que l’enonce soit en tout point identique au theoreme dans le casdiscret, la demonstration du theoreme a temps continu est beaucoup plus laborieuse !- Le theoreme est encore valide pour une sous-martingale et une sur-martingale (avec lesinegalites correspondantes). C’est ce que nous allons utiliser pour demontrer les inegalitesde Doob ci-dessous.

Terminologie : Une martingale (Mt) est dite de carre integrable si E(M 2t ) <∞, ∀t ∈ R+.

Inegalites de DoobSoit (Mt) une martingale (par rapport a une filtration (Ft)) continue, de carre integrable ettelle que M0 = 0 p.s. Alors

a) P(sup0≤s≤t |Ms| ≥ λ) ≤ E(|Mt|)λ

, ∀t > 0, λ > 0,

b) E(sup0≤s≤t |Ms|2) ≤ 4E(|Mt|2), ∀t > 0.

Remarque 2.1.21. Ces inegalites sont precieuses, car elles permettent de borner (en esperance)le supremum d’une martingale sur un intervalle par quelque chose qui ne depend que de lavaleur de la martingale a la fin de l’intervalle.

Demonstration. (inegalites de Doob)a) Par l’inegalite de Jensen, le processus (|Mt|, t ∈ R+) est une sous-martingale. On definit

T1 = infs ≥ 0 : |Ms| ≥ λ ∧ t, T2 = t.

On voit alors que 0 ≤ T1 ≤ T2 = t. En appliquant le theoreme d’arret ci-dessus a la sous-martingale (|Mt|), on trouve donc que

|MT1| ≤ E(|Mt||FT1).

En multipliant par 1|MT1|≥λ, on trouve encore

|MT1| 1|MT1|≥λ ≤ E(|Mt| 1|MT1

|≥λ|FT1),

30

Page 35: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

car 1|MT1|≥λ est FT1-mesurable. De la, on deduit que

λP(|MT1| ≥ λ) = E(λ 1|MT1|≥λ) ≤ E(|MT1| 1|MT1

|≥λ) ≤ E(|Mt| 1|MT1|≥λ).

Soit maintenant M ∗ = sup0≤s≤t |Ms| : il importe de remarquer que

|MT1 | ≥ λ = M ∗ ≥ λ.

(Effectivement, chacun des deux evenements ci-dessus correspond a l’evenement “le processus|Mt| a depasse la valeur λ dans l’intervalle [0, t]”). Ceci implique que

λP(M ∗ ≥ λ) ≤ E(|Mt| 1M∗≥λ) ≤ E(|Mt|) (2)

et donc l’inegalite a).

b) Pour simplifier, supposons que l’on sait que E((M ∗)2) < ∞ (ca n’est pas clair a priori).Alors du fait que (cf. exercices)

g(M∗) =∫ ∞

0g′(x) 1M∗≥x dx,

on a par l’inegalite de gauche dans (2),

E((M ∗)2) =∫ ∞

02xP(M ∗ ≥ x) dx ≤

∫ ∞

02E(|Mt| 1M∗≥x) dx = 2E(|Mt|M∗).

L’inegalite de Cauchy-Schwarz permet finalement de conclure que

E((M ∗)2) ≤ 2√

E(|Mt|2)√

E(M ∗)2),

autrement dit,

E((M ∗)2) ≤ 2√

E(M 2t ) i.e. E((M ∗)2) ≤ 4E(M 2

t ),

ce qui termine la demonstration. ¤

31

Page 36: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

2.2 Integrale de Riemann-Stieltjes

Integrale de RiemannSoit t > 0 et f : R+ → R continue. On definit

∫ t

0f(s) ds = lim

n→∞

n∑

i=1

f(s(n)i ) (t

(n)i − t

(n)i−1),

ou 0 = t(n)0 < t

(n)1 < . . . < t(n)n = t, s

(n)i ∈ [t

(n)i−1, t

(n)i ] et (t

(n)0 , . . . , t(n)n ) est une suite de parti-

tions de [0, t] telle que limn→∞max1≤i≤n |t(n)i − t(n)i−1| = 0.

Fonction (localement) a variation borneeFonction g : R+ → R telle que ∀t > 0,

supn∑

i=1

|g(ti)− g(ti−1)| <∞,

ou le supremum est pris sur toutes les partitions (t0, . . . , tn) de [0, t], avec n arbitraire.

Remarque 2.2.1. - Si g est croissante, alors g est a variation bornee, car

n∑

i=1

|g(ti)− g(ti−1)| =n∑

i=1

(g(ti)− g(ti−1)) = g(t)− g(0)

est independant de la partition choisie, donc

supn∑

i=1

|g(ti)− g(ti−1)| = g(t)− g(0) <∞.

- Si g est la difference de deux fonctions croissantes, alors g est a variation bornee.(La demonstration est similaire a ce qui precede.)

- Si g est continument derivable, alors g est a variation bornee, car

n∑

i=1

|g(ti)− g(ti−1)| =n∑

i=1

∫ ti

ti−1

g′(s) ds

≤n∑

i=1

sups∈[ti−1,ti]

|g′(s)| (ti − ti−1)

≤ sups∈[0,t]

|g′(s)|n∑

i=1

(ti − ti−1) = sups∈[0,t]

|g′(s)| t

est independant de la partition choisie, donc

supn∑

i=1

|g(ti)− g(ti−1)| ≤ sups∈[0,t]

|g′(s)| t <∞.

32

Page 37: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Integrale de Riemann-StieltjesSoit t > 0, f : R+ → R continue et g : R+ → R a variation bornee. On definit

∫ t

0f(s) dg(s) = lim

n→∞

n∑

i=1

f(s(n)i ) (g(t

(n)i )− g(t

(n)i−1)),

ou 0 = t(n)0 < t

(n)1 < . . . < t(n)n = t, s

(n)i ∈ [t

(n)i−1, t

(n)i ] et (t

(n)0 , . . . , t(n)n ) est une suite de parti-

tions de [0, t] telle que limn→∞max1≤i≤n |t(n)i − t(n)i−1| = 0.

Proposition 2.2.2. - Si f est continue et g est continument derivable, alors∫ t

0f(s) dg(s) =

∫ t

0f(s) g′(s) ds.

- Si f et g sont continues et a variation bornee, alors∫ t

0f(s) df(s) =

f(t)2

2− f(0)2

2,

∫ t

0f(s) dg(s) = f(t) g(t)− f(0) g(0)−

∫ t

0g(s) df(s).

Passons des fonctions deterministes aux processus aleatoiresSoit (Ht, t ∈ R+) un processus a trajectoires continues.Soit (Vt, t ∈ R+) un processus (a trajectoires) a variation bornee.On definit

(∫ t

0Hs dVs

)

(ω) =∫ t

0Hs(ω) dVs(ω)

Cette integrale est definie trajectoire par trajectoire (i.e. “ω par ω”).

Remarque 2.2.3. Si la courbe (Vt) est l’evolution du prix d’un actif financier et (Ht) est lastrategie d’investissement sur cet actif, alors

∫ t0 Hs dVs represente le gain effectue sur l’inter-

valle [0, t]. L’integrale ci-dessus est donc bien definie et l’on peut se demander pourquoi ona besoin de parler d’integrale “stochastique” ?

Il se trouve qu’en mathematiques financieres, les processus d’evolution des prix sont mieuxrepesentes par des mouvements browniens (ou des processus plus compliques encore). Or lemouvement brownien (standard) a des trajectoires continues mais pas a variation bornee(voir plus loin). Comment definir alors

∫ t0 Hs dBs ?

Une fausse solution : si on suppose (Ht) a variation bornee, alors on pourrait definir∫ t

0Hs dBs = HtBt −H0B0 −

∫ t

0Bs dHs.

Le terme de droite est bien defini, car (Ht) est a variation bornee et (Bt) est continu. Maiscomment definir alors

∫ t0 Bs dBs ? ? ?

33

Page 38: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

2.3 Variation quadratique Cours 7

Variation quadratique du mouvement brownien standardSoit (Bt, t ∈ R+) un mouvement brownien standard (par convenance, on notera parfoisBt = B(t)). Pour t > 0, on definit

〈B〉(n)t =2n∑

i=1

(

B(

it2n

)

−B(

(i−1) t2n

))2.

Proposition - Definition. Pour t > 0,

limn→∞〈B〉

(n)t = t p.s.

et on definit la variation quadratique du mouvement brownien standard 〈B〉t comme etantdonnee par cette limite (par convention, on pose egalement 〈B〉0 = 0).

Demonstration. Soient Xi = B(

it2n

)

−B(

(i−1)t2n

)

, 1 ≤ i ≤ 2n (t et n fixes).

Les v.a. Xi sont i.i.d. ∼ N(0, t/2n) et 〈B〉(n)t =∑2n

i=1X2i . De plus, on a

E(〈B〉(n)t ) =2n∑

i=1

E(X2i ) =

2n∑

i=1

t

2n= t,

Var(〈B〉(n)t ) =2n∑

i=1

Var(X2i ) =

2n∑

i=1

(E(X4i )− E(X2

i )2)

=2n∑

i=1

(

3t2

4n− t2

4n

)

=t2

2n−1.

En consequence,

∞∑

n=1

P(|〈B〉(n)t − t| > ε) ≤ 1

ε2

∞∑

n=1

Var(〈B〉(n)t ) =1

ε2

∞∑

n=1

t2

2n−1<∞.

Par le lemme de Borel-Cantelli (a) et le critere donne pour la convergence presque sure, ona donc

〈B〉(n)t →n→∞ t p.s.

¤

Corollaire 2.3.1.

limn→∞

2n∑

i=1

∣B(

it2n

)

−B(

(i−1) t2n

)∣

∣ =∞ p.s.

donc le processus (Bt) n’est pas a variation bornee.

34

Page 39: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Demonstration. Supposons par l’absurde que P(limn→∞∑n

i=1 |B( it2n)− B( (i−1)t

2n)| < ∞) > 0.

Alors en reprenant la notation de la demonstration precedente, on a

〈B〉t = limn→∞〈B〉

(n)t = lim

n→∞

2n∑

i=1

X2i ≤

(

limn→∞ max

1≤i≤2n|Xi|

)

(

limn→∞

2n∑

i=1

|Xi|)

.

Vu que le processus (Bt) est continu, il est uniformement continu sur [0, t], et donc

limn→∞ max

1≤i≤2n|Xi| = 0 p.s.

D’un autre cote, on a suppose que

P(

limn→∞

2n∑

i=1

|Xi| <∞)

> 0.

De la premiere inegalite, on conclut donc que

P (〈B〉t = 0) > 0,

ce qui est clairement en contradiction avec le fait que 〈B〉t = t p.s., demontre ci-dessus. ¤

Remarque 2.3.2. Le fait que le processus (Bt) n’est pas a variation bornee implique queses trajectoires ne sont pas derivables.

Remarque 2.3.3. En appliquant la proposition 2.1.18 (i), on remarque que le processus(B2t − 〈B〉t, t ∈ R+) est une martingale. Ceci n’est pas un hasard. Cette propriete va memenous servir a definir la variation quadratique d’une martingale continue de carre integrable.

Theoreme de decomposition de DoobSoit (Xt, t ∈ R+) une sous-martingale continue (par rapport a une filtration (Ft, t ∈ R+)).Alors il existe un unique processus (At, t ∈ R+) croissant, continu et adapte a (Ft, t ∈ R+)tel que A0 = 0 et (Xt − At, t ∈ R+) est une martingale.

Application : definition de la variation quadratique d’une martingaleSoit (Mt) une martingale continue de carre integrable (par rapport a une filtration (Ft)).Alors (M 2

t ) est une sous-martingale et donc, d’apres le theoreme ci-dessus, il existe un uniqueprocessus (At) croissant, continu et adapte a (Ft) tel que A0 = 0 et (M 2

t − At) est unemartingale. On note At = 〈M〉t et on appelle ce processus la variation quadratique de (Mt).

Exemple 2.3.4. On a vu que 〈B〉t = t. Noter que dans ce cas, la variation quadratique estun processus deterministe.

35

Page 40: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Remarque 2.3.5. - Noter qu’on a toujours par definition : E(〈M〉t) = E(M 2t )− E(M 2

0 ).- Du fait que le processus (〈M〉t) est croissant, c’est un processus a variation bornee (i.e. lavariation quadratique d’une martingale est un processus a variation bornee).- Si (Mt) est une martingale continue a variation bornee, alors Mt = M0 pour tout t > 0(i.e. Mt est constante).

Proposition 2.3.6. Si (Mt) est une martingale continue de carre integrable, alors on a :

〈M〉(n)t =2n∑

i=1

(

M(

it2n

)

−M(

(i−1) t2n

))2 P→n→∞ 〈M〉t, ∀t ≥ 0.

Remarque 2.3.7. - A priori, la convergence n’a lieu qu’en probabilite (alors qu’elle a lieupresque surement dans le cas ou (Mt) est un mouvement brownien standard).- Bien que la variation quadratique soit une quantite aleatoire, la proposition ci-dessus illustrele fait qu’elle est une generalisation de la notion de variance pour des processus aleatoires.

Definition 2.3.8. Soient (Mt), (Nt) deux martingales continues de carre integrable. Ondefinit la covariation quadratique de (Mt) et (Nt) par

〈M,N〉t =1

4(〈M +N〉t − 〈M −N〉t).

Proposition 2.3.9. (demonstration : cf. exercices)Le processus (MtNt − 〈M,N〉t) est une martingale.

Proposition 2.3.10. Si (Mt) et (Nt) sont deux martingales continues de carre integrable,alors on a :

〈M,N〉(n)t =2n∑

i=1

(

M(

it2n

)

−M(

(i−1) t2n

)) (

N(

it2n

)

−N(

(i−1) t2n

)) P→n→∞ 〈M,N〉t, ∀t ≥ 0.

Remarque 2.3.11. De la meme maniere que ci-dessus, on voit que la covariation quadra-tique est en quelque sorte une generalisation de la covariance pour des processus aleatoires.En particulier, elle est bilineaire et on a egalement la proposition suivante.

Proposition 2.3.12. (cf. proposition 1.5.12)Soient (Mt), (Nt) deux martingales continues de carre integrable independantes et soit c ∈ R.Alors

〈M,N〉t = 0 et 〈cM +N〉t = c2 〈M〉t + 〈N〉t.

La premiere egalite vient du fait que si (Mt) et (Nt) sont deux martingales independantesde carre integrable, alors (MtNt) est une martingale (mais la demonstration de ce fait estplus longue qu’on pourrait imaginer).

36

Page 41: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Changement de temps

Definition 2.3.13. On appelle mouvement brownien standard par rapport a une filtration (Ft)un mouvement brownien standard (Bt) adapte a (Ft) et tel que

(Bt −Bs)⊥Fs, ∀t > s ≥ 0.

On est maintenant en mesure de donner une version differente du theoreme de Levy.

Theoreme de Levy (seconde version)Soit (Mt) une martingale continue de carre integrable par rapport a une filtration (Ft) telleque

〈M〉t = t p.s., ∀t ∈ R+.

Alors (Mt) est un mouvement brownien standard par rapport a (Ft).

Proposition 2.3.14. Soit (Mt) une martingale continue de carre integrable (par rapport aune filtration (Ft)) et telle que

limt→∞

〈M〉t =∞ p.s.

Soit T (s) = inft ≥ 0 : 〈M〉t ≥ s. On pose

Gs = FT (s) et Bs =MT (s), s ∈ R+.

Alors le processus (Bs) est un mouvement brownien standard par rapport a (Gs).

Demonstration. On utilise la version du theoreme de Levy mentionnee ci-dessus. Par conti-nuite de l’application s 7→ T (s) (qui provient de la continuite de t 7→ 〈M〉t), le processus(Bs) est continu. D’autre part, pour s2 > s1 ≥ 0, on a, par le theoreme d’arret :

E(Bs2 −Bs1 |Gs1) = E(MT (s2) −MT (s1)|FT (s1)) = 0.

(NB : ici, T (s2) n’est pas forcement borne (i.e. on n’est pas sur que T (s2)(ω) ≤ K, ∀ω ∈ Ω),mais le theoreme d’arret s’applique malgre tout). Le processus (Bs) est donc une martingalep.r. a (Fs). Elle est egalement de carre integrable et

E(B2s2 −B2s1 |Gs1) = E(M 2T (s2)

−M2T (s1)

|FT (s1)).

Par definition de la variation quadratique (et en utilisant a nouveau le theoreme d’arret), ona

E(M 2T (s2)

− 〈M〉T (s2)|FT (s1)) =M 2T (s1)

− 〈M〉T (s1),i.e.

E(B2s2 −B2s1 |Gs1) = E(〈M〉T (s2) − 〈M〉T (s1)|FT (s1)) = E(s2 − s1|FT (s1)) = s2 − s1.

Donc le processus (B2s − s) est une martingale par rapport a (Gs), i.e. 〈B〉s = s p.s., et par

le theoreme de Levy, (Bs) est un mouvement brownien standard par rapport a (Gs). ¤

37

Page 42: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Corollaire 2.3.15. Toute martingale continue de carre integrable telle que limt→∞〈M〉t =∞p.s. s’ecrit Mt = B(〈M〉t), ou (Bt) est un mouvement brownien standard.

On voit donc qu’une martingale se comporte generalement comme un mouvement brownien(en ce qui concerne l’allure des trajectoires). En ce sens, le mouvement brownien est “la”martingale typique.

Attention ! Du corollaire ci-dessus, on pourrait avoir envie de conclure que toute martingaleest un processus gaussien. Ca n’est evidemment pas vrai, car le changement de temps t 7→〈M〉t est lui-meme aleatoire (en general), et donc la variable aleatoire B(〈M〉t) n’est pasnecessairement gaussienne. Il est par contre vrai que si (〈M〉t) est un processus deterministe,alors (Mt) est un processus gaussien.

2.4 Integrale stochastique (ou integrale d’Ito)

Soit (Bt, t ∈ R+) un mouvement brownien standard par rapport a (Ft, t ∈ R+).Soit T > 0 fixe (6= temps d’arret). Notre but est de construire l’integrale stochastique

(∫ t

0Hs dBs, t ∈ [0, T ]

)

pour un processus (Ht) verifiant certaines proprietes. Pour cela, on procede en plusieursetapes (cf. construction de l’esperance).

Remarque 2.4.1. En mathematiques financieres, T represente l’horizon du marche (desormais,on travaillera toujours a horizon fini, ce qui simplifie les choses), (Bt) represente l’evolutiondu prix d’un actif, (Ht) la strategie d’investissement sur cet actif et

∫ t0 Hs dBs la gain realise

au temps t avec la strategie H. De la meme maniere qu’a temps discret, (Ht) doit etre“previsible” pour qu’il n’y ait pas delit d’initie. Nous allons voir une maniere simple detraduire cette propriete de previsibilite a temps continu.

Premiere etape

Definition 2.4.2. Un processus simple previsible (par rapport a une filtration (Ft)) est unprocessus (Ht, t ∈ [0, T ]) tel que

Ht =n∑

i=1

Xi 1]ti−1,ti](t), t ∈ [0, T ],

ou 0 = t0 < t1 < . . . < tn = T forme une partition de [0, T ] et Xi est une v.a. Fti−1-mesurable

et bornee ∀i ∈ 1, . . . , n.

38

Page 43: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

On voit donc que sur l’intervalle ]ti−1, ti], la valeur du procesus (Ht) est determinee parl’information Fti−1

, d’ou le nom de “previsible” (l’appellation “simple” vient quant a elle dufait que le processus ne prend qu’un nombre fini de valeurs (aleatoires !)). On pose

(H ·B)T ≡∫ T

0Hs dBs =

n∑

i=1

Xi (Bti −Bti−1).

Cette definition de l’integrale stochastique pour des processus simples previsibles est uni-voque (mais ca demande un petit travail de verification) et l’integrale est lineaire en H,i.e.

((cH +K) ·B)T = c (H ·B)T + (K ·B)T .

Remarque 2.4.3. Cette integrale represente en quelque sorte l’“aire sous la courbe t→ Ht”,lorsqu’on “mesure” les intervalles ]ti−1, ti] a l’aide du brownien (Bt). Ici, il faut faire attentionquand on parle de mesure car 1) la “mesure” de l’intervalle Bti − Bti−1

peut etre negative ;2) cette “mesure” ne verifie pas non plus l’axiome (ii) de la definition 1.1.9.

Proposition 2.4.4. On a les egalites suivantes :

E((H ·B)T ) = 0 et E((H ·B)2T ) = E(

∫ T

0H2

s ds

)

.

La seconde egalite ci-dessus est appelee l’isometrie d’Ito.Remarquer que si H(t) ≡ 1, alors on retrouve l’egalite E(B2

T ) = T .

Demonstration. En utilisant la linearite de l’esperance et en introduisant un conditionnementa l’interieur de l’esperance, on obtient

E((H ·B)T ) =n∑

i=1

E(Xi (Bti −Bti−1))

=n∑

i=1

E(

E(Xi (Bti −Bti−1)|Fti−1

))

=n∑

i=1

E(

Xi E(Bti −Bti−1|Fti−1

))

=n∑

i=1

E(

Xi E(Bti −Bti−1))

= 0,

ou on a utilise le fait que Xi est Fti−1-mesurable et (Bti −Bti−1

)⊥Fti−1. Pour l’isometrie, on

calcule

E((H ·B)2T ) =n∑

i,j=1

E(

XiXj (Bti −Bti−1) (Btj −Btj−1

))

=n∑

i=1

E(

X2i (Bti −Bti−1

)2)

+ 2n∑

i,j=ii<j

E(

XiXj (Bti −Bti−1)(Btj −Btj−1

))

.

39

Page 44: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

En introduisant a nouveau un conditionnement a l’interieur des esperances, on obtient

E((H ·B)2T ) =n∑

i=1

E(

E(X2i (Bti −Bti−1

)2|Fti−1))

+2n∑

i,j=1i<j

E(

E(XiXj (Bti −Bti−1) (Btj −Btj−1

)|Ftj−1

)

=n∑

i=1

E(

X2i E((Bti −Bti−1

)2))

+ 2n∑

i,j=1i<j

E(

XiXj (Bti −Bti−1)E(Btj −Btj−1

))

=n∑

i=1

E(X2i ) (ti − ti−1) + 0,

car E((Bti −Bti−1)2) = ti − ti−1. D’autre part, on a

E(∫ t

0H2

s ds)

= E(

n∑

i=1

∫ ti

ti−1

H2s ds

)

= E(

n∑

i=1

X2i (ti − ti−1)

)

,

donc l’isometrie est verifiee. ¤

Remarque 2.4.5. Pour etre tout a fait exact, l’isometrie d’Ito dit encore que si H et Ksont deux processus simples previsibles, alors

E((H ·B)T (K ·B)T ) = E(

∫ T

0HsKs ds

)

.

La verification est similiaire a celle effectuee ci-dessus, quoiqu’un peu plus technique.

Deuxieme etapeSoit (Ht, t ∈ [0, T ]) un processus simple previsible comme defini ci-dessus et t ∈ [0, T ]. Onpose

(H ·B)t ≡∫ t

0Hs dBs = ((H 1[0,t]) ·B)T =

n∑

i=1

Xi (Bti∧t −Bti−1∧t).

A nouveau, cette integrale est lineaire en H et on a par la proposition precedente :

E((H·B)t) = 0 et E((H·B)2t ) = E(((H 1[0,t])·B)2T ) = E(

∫ T

0H2

s 1[0,t](s) ds

)

= E(∫ t

0H2

sds)

.

De plus, en utilisant la remarque 2.4.5, on peut encore calculer

Cov((H ·B)t, (K ·B)s) = E((H ·B)t (K ·B)s) = E(∫ t∧s

0HrKr dr

)

.

40

Page 45: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Remarque 2.4.6. Si t ∈ ]tk−1, tk], alors Cours 8

(H ·B)t =k−1∑

i=1

Xi (Bti −Bti−1) +Xk (Bt −Btk−1

).

Proposition 2.4.7. Le processus ((H ·B)t, t ∈ [0, T ]) est une martingale continue de carreintegrable.

Demonstration. Par la remarque ci-dessus et la continuite de (Bt), le processus ((H · B)t)est clairement continu a l’interieur des intervalles ]tk−1, tk[. Aux points limites, il est aise deverifier que le processus reste continu egalement. D’autre part, l’isometrie montree plus hautdit que ((H ·B)t) est un processus de carre integrable, donc par l’inegalite de Cauchy-Schwarz,

E(|(H ·B)t|) ≤√

E((H ·B)2t ) <∞.

De plus, si on suppose que t ∈ ]tk−1, tk], alors

E((H ·B)T |Ft) =k−1∑

i=1

E(Xi (Bti −Bti−1)|Ft) + E(Xk (Btk −Btk−1

)|Ft)

+n∑

i=k+1

E(Xi (Bti −Bti−1)|Ft)

=k−1∑

i=1

Xi (Bti −Bti−1) +Xk E(Btk −Btk−1

|Ft)

+n∑

i=k+1

E(Xi E(Bti −Bti−1|Fti−1

)|Ft)

=k−1∑

i=1

Xi (Bti −Bti−1) +Xk (Bt −Btk−1

) + 0 = (H ·B)t,

par la remarque ci-dessus. Le processus ((H · B)t) est donc une martingale car pour t ≥ s,on a

E((H ·B)t|Fs) = E(E((H ·B)T |Ft)|Fs) = E((H ·B)T |Fs) = (H ·B)s.

¤

D’apres l’inegalite de Doob (b), on a donc :

E(

supt∈[0,T ]

(H ·B)2t

)

≤ 4E(

(H ·B)2T)

= 4E(

∫ T

0H2

s ds

)

.

41

Page 46: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Troisieme etapeOn etend maintenant l’integrale (H ·B) par continuite a l’ensemble

HT =

(Ht, t ∈ [0, T ]) : H est adapte, continu a gauche, limite a droite

et tel que E(

∫ T

0H2

s ds

)

<∞

.

Cet ensemble est un espace vectoriel norme et complet (ou espace de Banach), muni de lanorme ‖ · ‖T,1 definie par

‖H‖2T,1 = E(∫ t

0H2

s ds)

.

Remarque 2.4.8. Un processus adapte et continu a gauche est l’equivalent a temps continud’un processus previsible a temps discret : la valeur d’un tel processus a l’instant t ne peutpas differer trop de sa valeur a l’instant t− ε, instant ou il est Ft−ε-mesurable car adapte. Ilexiste toutefois une notion plus generale de processus previsible a temps continu, mais nousn’entrerons pas dans ces details dans ce cours.

D’autre part, on entend par “limite a droite” que le processus peut etre discontinu a droite,mais doit tout de meme avoir une limite depuis la droite (i.e. le “futur”). Cette restrictionest essentiellement technique ; elle assure que le processus soit suffisamment regulier.

On a maintenant besoin du lemme suivant.

Lemme 2.4.9. ∀H ∈ HT , il existe une suite (H (n)) de processus simples previsibles tels que

E(

∫ T

0(H(n)

s −Hs)2 ds

)

→n→∞

0.

Consequence : Du fait que la suite (H (n)) converge, c’est egalement une suite de Cauchy :

E(

∫ T

0(H(n)

s −H(m)s )2 ds

)

→n,m→∞ 0.

Et donc, on a

E(

supt∈[0,T ]

((H(n) ·B)t − (H(m) ·B)t)2

)

= E(

supt∈[0,T ]

((H(n) −H(m)) ·B)t)2

)

≤ 4E(

∫ T

0(H(n)

s −H(m)s )2 ds

)

→n,m→∞ 0.

42

Page 47: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

La suite de processus ((H (n) ·B)) est donc une suite de Cauchy dans l’espace de BanachMT

defini par

MT = (Mt, t ∈ [0, T ]) martingale continue de carre integrable telle que M0 = 0

et muni de la norme ‖ · ‖T,2 definie par

‖M‖2T,2 = E(

supt∈[0,T ]

M2t

)

.

Le fait que MT soit complet (i.e. que toute suite de Cauchy dans MT converge dans MT )implique que la suite ((H (n) ·B)) converge dansMT . Il existe donc un element (H ·B) ∈MT

tel que

E(

supt∈[0,T ]

((H(n) ·B)t − (H ·B)t)2

)

→n→∞ 0. (3)

Nous avons ainsi defini l’application lineaire et continue

HT →MT ,H 7→ (H ·B).

Remarque 2.4.10. - (3) implique en particulier que pour tout ε > 0,

P( supt∈[0,T ]

|(H(n) ·B)t − (H ·B)t| > ε) →n→∞ 0,

donc la suite ((H (n) ·B)) converge uniformement sur [0, T ] en probabilite vers (H ·B).- Attention : la construction de l’integrale stochastique ci-dessus implique qu’elle n’est definiequ’a un ensemble negligeable pres (cf. definition de l’esperance conditionnelle). Plus impor-tant : l’integrale stochastique n’est pas definie trajectoire par trajectoire, i.e. “ω par ω” :pour un ω ∈ Ω donne, il est impossible de dire ce que vaut (H · B)T (ω) si on ne connaıtque les trajectoires t 7→ Ht(ω) et t 7→ Bt(ω) ; aussi etrange que cela puisse paraıtre, il fautconnaıtre les processus (Ht) et (Bt) en entier !

Proprietes de l’integrale stochastique- Linearite : ((cH +K) ·B)t = c (H ·B)t + (K ·B)t p.s.- Esperance nulle et isometrie : E((H ·B)t) = 0 et Cov((H ·B)t, (K ·B)s) = E(

∫ t∧s0 HrKr dr).

- (H ·B) est une martingale continue de carre integrable telle que

E(

supt∈[0,T ]

(H ·B)2t

)

≤ 4E(

∫ T

0H2

s ds

)

.

43

Page 48: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Les proprietes ci-dessus ont deja ete verifiees lors de la seconde etape pour des processusH simples previsibles (on verifie le cas general en utilisant la continuite). Citons encore unepropriete qui n’a pas ete mentionnee precedemment et qui est plus delicate a demontrer,mais tres utile en pratique :

〈(H ·B)〉t =∫ t

0H2

s ds,

ou plus generalement,

〈(H ·B), (K ·B)〉t =∫ t

0HsKs ds.

Ainsi, on peut calculer facilement la variation quadratique d’une integrale stochastique, ou lacovariation quadratique de deux integrales stochastiques, sans devoir se referer a la definitionde (co)variation quadratique.

Remarque 2.4.11. Soit (Ht, t ∈ [0, T ]) ∈ HT , qu’on suppose de plus a trajectoires conti-nues. On pose

H(n)t =

n∑

i=1

Ht(n)i−1

1]t

(n)i−1,t

(n)i](t),

ou 0 = t(n)0 < t

(n)1 < . . . < t(n)n = t et limn→∞max1≤i≤n |t(n)i − t

(n)i−1| = 0. Alors on a

(H(n) ·B)T =n∑

i=1

Ht(n)i−1

(Bt(n)i

−Bt(n)i−1

)P→

n→∞ (H ·B)T ≡∫ T

0Hs dBs.

Mais : 1) La convergence a lieu seulement en probabilite (on peut en fait montrer que si onexige que la convergence ait lieu presque surement pour tout processus continu H, alors leprocessus B doit etre a variation bornee).

2) On n’a plus le choix du point s(n)i ∈ [t

(n)i−1, t

(n)i ], comme c’etait le cas pour l’ıntegrale

de Riemann-Stieltjes ; il faut maintenant choisir systematiquement le point a gauche del’intervalle (s

(n)i = t

(n)i−1), sinon la limite change.

Illustration de ce dernier point : integrale de StratonovichOn pose

(H B)T ≡∫ T

0Hs dBs = lim

n→∞

n∑

i=1

1

2(H

t(n)i−1

+Ht(n)i

) (Bt(n)i

−Bt(n)i−1

),

ou la limite est une limite en probabilite. On peut montrer que (cf. exercices) :

(H B)T = (H ·B)T +1

2〈H,B〉T

44

Page 49: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

ou (H ·B)T est l’integrale definie au sens d’Ito et

〈H,B〉T = limn→∞

n∑

i=1

(Ht(n)i

−Ht(n)i−1

) (Bt(n)i

−Bt(n)i−1

),

ou la limite est a nouveau une limite en probabilite (NB : si H et B sont des martingalescontinues de carre integrable, alors la definition de 〈H,B〉T ci-dessus coıncide avec celle decovariation quadratique donnee plus haut).

Ainsi, si au lieu de considerer le point a gauche de l’intervalle, on choisit la moyenne entre lepoint a gauche et le point a droite, alors la valeur de l’integrale change. De plus, le processus((H B)t) n’est pas une martingale. Par contre, on verra que l’integrale de Stratonovichpresente des avantages du point de vue du calcul differentiel.

Integrale stochastique par rapport a une martingaleOn peut definir

∫ t0 Hs dMs de la meme maniere que

∫ t0 Hs dBs si on suppose que M est une

martingale continue de carre integrable.

1. Pour (Ht) un processus simple donne par Ht =∑n

i=1Xi 1]ti−1,ti](t), on pose

(H ·M)t ≡∫ t

0Hs dMs =

n∑

i=1

Xi (Mti∧t −Mti−1∧t)

et on verifie que

E((H ·M)t) = 0, E((H ·M)2t ) = E(∫ t

0H2

s d〈M〉s)

.

Remarquer que le terme ds apparaissant dans l’isometrie pour (H · B)t a logiquement eteremplace par d〈M〉s pour tenir compte de la variation quadratique 〈M〉s de la martingalequi n’est pas forcement egale a s.

D’autre part, on verifie que le processus ((H ·M)t, t ∈ [0, T ]) est egalement une martingalecontinue de carre integrable.

2. L’extension de l’integrale a un processus (Ht) adapte, continu a gauche, limite a droite ettel que

E(

∫ T

0H2

s d〈M〉s)

<∞

est identique a celle effectuee pour∫ t0 HsdBs.

45

Page 50: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Donnons ici la liste des proprietes de (H ·M)t ≡∫ t0 Hs dMs :

Linearite : ((cH +K) ·M)t = c (H ·M)t +(K ·M)t et (H · (M +N))t = (H ·M)t +(H ·N)t.

E((H ·M)t) = 0, E((H ·M)2t ) = E(∫ t0 H

2s d〈M〉s).

Cov((H ·M)t, (K ·N)t) = E(∫ t0 HsKs d〈M,N〉s).

〈(H ·M)t〉 =∫ t0 H

2s d〈M〉s.

〈(H ·M), (K ·N)〉t =∫ t0 HsKs d〈M,N〉s.

“Regle” utile a retenir : si Xt =∫ t0 HsdMs (i.e. dXt = Ht dMt), alors d〈X〉t = H2

t d〈M〉t.

Noter que si Mt =∫ t0 Ks dBs, alors

Xt =∫ t

0HsKs dBs et 〈X〉t =

∫ t

0H2

s K2s ds.

De meme, vu que la proriete de martingale (continue de carre integrable) est preservee, onpeut encore definir (L ·X)t ≡

∫ t0 Ls dXs etc. etc.

Remarque 2.4.12. On a maintenant defini une application lineaire et continue

HT ×MT →MT ,(H,M) 7→ (H ·M),

ou HT est l’ensemble des processus (Ht) adaptes, continus a gauche, limites a droite et telsque E(

∫ T0 H

2s d〈M〉s) <∞.

46

Page 51: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

2.5 Formules d’Ito Cours 9

2.5.1 Formules de base

Jusqu’a present, on a defini l’integrale stochastique, mais il nous manque encore des reglesde calcul. La premiere regle de calcul est la suivante.

Theoreme 2.5.1. Soit (Bt, t ∈ R+) un mouvement brownien stantard par rapport a (Ft, t ∈R+) et f ∈ C2(R) (i.e. f, f ′ et f ′′ sont des fonctions continues). On suppose de plus que

E(∫ t

0(f ′(Bs))

2 ds)

<∞, ∀t > 0. (4)

Alors pour tout t > 0,

f(Bt)− f(B0) =∫ t

0f ′(Bs) dBs +

1

2

∫ t

0f ′′(Bs) ds p.s. (5)

Remarque 2.5.2. - Vu que (f ′(Bt), t ≥ 0) est un processus continu et adapte a (Ft) et quela condition (4) est verifiee,

∫ t0 f

′(Bs) dBs est bien definie (et∫ t0 f

′′(Bs) ds l’est egalement carl’application s 7→ f ′′(Bs) est continue).- Le second terme du membre de droite dans (5) (absent dans les regles de calcul differentiel“classique”) est appele terme d’Ito ; il resulte la variation quadratique non-nulle du mouve-ment brownien.

Demonstration.(idee principale)

f(Bt)− f(B0) =n∑

i=1

(f(Bt(n)i

)− f(Bt(n)i−1

)),

ou 0 = t(n)0 < t

(n)1 < . . . < t(n)n = t est une suite de partitions de [0, t] telle que

limn→∞ max

1≤i≤n|t(n)i − t

(n)i−1| = 0.

Par un developpement de Taylor classique, on a

f(y)− f(x) = f ′(x) (y − x) +1

2f ′′(x) (y − x)2 + r(y − x),

ou limh→0r(h)h2 = 0 (on note aussi r(h) = o(h2)). Donc

f(Bt)− f(B0) =n∑

i=1

(

f ′(Bt(n)i−1

) (Bt(n)i

−Bt(n)i−1

) +1

2f ′′(B

t(n)i−1

) (Bt(n)i

−Bt(n)i−1

)2 + r(n)i

)

P→n→∞

∫ t

0f ′(Bs) dBs +

1

2

∫ t

0f ′′(Bs) d〈B〉s + 0,

ce qui permet de conclure, vu que 〈B〉s = s. ¤

47

Page 52: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Remarque 2.5.3. Cette “demonstration” evite un tres grand nombre de details techniquesconcernant la convergence des divers termes. Notamment, il faut choisir les points B

t(n)i−1

(et

non Bt(n)i

ou autre chose) pour le developpement de Taylor, ce qui n’apparaıt pas clairement

ci-dessus. Remarquer d’autre part que dans le cas ou f ′′(x) = 1, on a deja vu que

n∑

i=1

1 (Bt(n)i

−Bt(n)i−1

)2P→

n→∞〈B〉t =

∫ t

01 d〈B〉s.

Exemple 2.5.4. Soit f(x) = x ; la formule (5) s’ecrit alors

Bt −B0 =∫ t

01 dBs + 0,

autrement dit, rien de nouveau (ceci correspond au calcul differentiel classique).

Exemple 2.5.5. Soit f(x) = x2 ; on a d’apres (5) :

B2t −B20 =∫ t

02Bs dBs +

1

2

∫ t

02 ds = 2

∫ t

0Bs dBs + t,

autrement dit : B2t−t = 2

∫ t0 BsdBs est une martingale, ce qu’on avait deja montre d’une autre

maniere (noter que la condition (4) est verifiee car E(∫ t0(2Bs)

2 ds) =∫ t0 4s ds = 2t2 <∞).

Exemple 2.5.6. Soit f(x) = ex : f ′(x) = f ′′(x) = ex, et donc

eBt − 1 =∫ t

0eBs dBs +

1

2

∫ t

0eBs ds.

Noter qu’ici aussi la condition (4) est verifiee, car

E(∫ t

0(eBs)2 ds

)

=∫ t

0E(e2Bs) ds =

∫ t

0e2s ds =

e2t − 1

2<∞.

Si on pose Xt = eBt , alors la formule ci-dessus devient :

Xt − 1 =∫ t

0Xs dBs +

1

2

∫ t

0Xs ds.

Autrement dit, on a trouve une equation (integrale) pour le processus (Xt). Sous formediffentielle, celle-ci s’ecrit

dXt = Xt dBt +1

2Xt dt et X0 = 1.

Vu que dBt

dtn’existe pas, “on ne divise pas par dt”. Noter que la forme differentielle ci-dessus

n’a aucun sens en tant que telle et ne constitue qu’une notation pour la forme integrale donnee

48

Page 53: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

plus haut. L’esprit humain cependant a plus de facilite a raisonner avec des differentielles,c’est pourquoi celle-ci est largement repandue.

Sous une forme ou l’autre, l’equation ci-dessus est notre premier exemple d’equation differen-tielle stochastique. Il se trouve que c’est aussi un cas particulier de l’equation de Black &Scholes, largement utilisee en mathematiques financieres pour decrire l’evolution du prixd’un actif (noter que la solution Xt = eBt suit une loi log-normale et est toujours a valeurspositives).

Voyons maintenant une version legerement plus elaboree de la formule (5).

Theoreme 2.5.7. Soient (Bt) un mouvement brownien standard et f ∈ C1,2(R+ × R) (i.e

f, ∂f∂t, ∂f∂x, ∂

2f∂x2 sont continues) telle que

E

∫ t

0

(

∂f

∂x(s, Bs)

)2

ds

<∞, ∀t > 0.

Alors pour tout t > 0,

f(t, Bt)− f(0, B0) =∫ t

0

∂f

∂t(s, Bs) ds+

∫ t

0

∂f

∂x(s, Bs) dBs +

1

2

∫ t

0

∂2f

∂x2(s, Bs) ds p.s.

Demonstration. La demonstration reprend le schema de celle du theoreme 2.5.1 esquisseeci-dessus. Le developpement de Taylor utilise est :

f(u, y)− f(t, x) =∂f

∂t(t, x) (u− t) +

∂f

∂x(t, x) (y − x) +

∂2f

∂x2(t, x)(y − x)2 + r(u− t, y − x),

ce qui explique l’apparition du terme supplementaire dans la formule. ¤

Remarque 2.5.8. Vu que la fonction t 7→ t est une fonction a variation bornee, il n’y a pasbesoin d’effectuer un developpement de la fonction f a l’ordre 2 en t.

Exemple 2.5.9. Soit f(t, x) = x2 − t : ∂f∂t

= −1, ∂f∂x

= 2x, ∂2f∂x2 = 2, donc ∂f

∂t+ 1

2∂2f∂x2 = 0 et

B2t − t =∫ t

02Bs dBs.

On retrouve donc la meme formule que ci-dessus.

Exemple 2.5.10. - Soit f(t, x) = ex−t2 : ∂f

∂t= −1

2f , ∂f

∂x= ∂2f

∂x2 = f , donc a nouveau∂f∂t

+ 12∂2f∂x2 = 0 et

eBt− t2 − 1 =

∫ t

0eBs− s

2 dBs.

49

Page 54: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Le processus (Zt = eBt− t2 ) est donc une martingale (appelee la martingale exponentielle

associee au mouvement brownien standard). De plus, il satisfait l’equation differentielle sto-chastique :

Zt − 1 =∫ t

0Zs dBs, i.e. dZt = Zt dBt et Z0 = 1.

Remarque 2.5.11. On sait que le processus Xt = eBt est une sous-martingale. En utilisantl’une ou l’autre des formules d’Ito ci-dessus, on a vu qu’il y a deux manieres de l’ecrire :

Xt = 1 +∫ t

0eBs dBs +

1

2

∫ t

0eBs ds

ou

Xt = et/2 +∫ t

0et−s2 eBs dBs.

Or selon le theoreme de decomposition de Doob, toute sous-martingale Xt continue s’ecritde maniere unique commeMt+At, ouMt est une martingale continue et At est un processuscroissant continu adapte tel que A0 = 0. L’exemple ci-dessus ne contredit-il donc pas letheoreme ? Non, car le processus

∫ t0 e

t−s2 eBs dBs n’est pas une martingale (a cause de la

dependance en t de l’integrand).

2.5.2 Processus d’Ito (ou “semi-martingale continue”)

Definition 2.5.12. Un processus d’Ito est un processus (Xt) pouvant se decomposer comme(Xt =Mt + Vt), ou :

(Mt) est une martingale continue de carre integrable (p.r. a une filtration (Ft)),(Vt) est un processus continu a variation bornee, adapte a (Ft) et tel que V0 = 0.

Remarque 2.5.13. Le nom “semi-martingale” vient simplement du fait que le processus(Xt) est compose pour moitie d’une martingale.

Exemple 2.5.14. D’apres le theoreme de decomposition de Doob, toute sous-martingale(resp. sur-martingale) continue de carre integrable est un processus d’Ito (car un processuscroissant (resp. decroissant) est a variation bornee).

Exemple 2.5.15. Soit (Xt) le processus defini par

Xt = X0 +∫ t

0Hs dBs +

∫ t

0Ks ds,

ou (Ht) est continu adapte et tel que E(∫ t0 H

2s dBs) <∞ pour tout t ≥ 0 et (Kt) est continu

et adapte. (Xt) un processus d’Ito.

50

Page 55: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Exemple 2.5.16. Soit f ∈ C2(R) verifiant la condition (4). Alors (f(Bt)) est un processusd’Ito, car par la formule (5),

f(Bt) = f(B0) +∫ t

0f ′(Bs) dBs +

1

2

∫ t

0f ′′(Bs) ds,

i.e. (f(Bt)) est la somme d’une martingale continue de carre integrable (Mt = f(B0) +∫ t0 f

′(Bs) dBs) et d’un processus continu a variation bornee (Vt = 12

∫ t0 f

′′(Bs) ds) tel queV0 = 0.

Definition 2.5.17. Pour t ≥ 0, la variation quadratique du processus d’Ito (Xt =Mt + Vt)est definie par

〈X〉t = 〈M〉t,et pour deux processus d’Ito (Xt =Mt + Vt) et (Yt = Nt + Ut), on pose

〈X,Y 〉t = 〈M,N〉t.

Remarque 2.5.18. - Remarquer que si (Xt) est a variation bornee, alors Xt = M0 + Vt

(rappelons ici que si (Mt) est une martingale continue a variation bornee, alors Mt = M0

pour tout t > 0) et donc, 〈X〉t = 0 selon la definition ci-dessus. De meme, 〈X,Y 〉t = 0, quel

que soit (Yt) (ceci vient de l’inegalite de Cauchy-Schwarz : |〈X,Y 〉t| ≤√

〈X〉t 〈Y 〉t).- Si d’autre part (Xt) et (Yt) sont independants (mais pas forcement a variation bornee),alors 〈X,Y 〉t = 0.

Definition 2.5.19. Soit (Xt = Mt + Vt) un processus d’Ito et (Ht) un processus continu,adapte a (Ft) et tel que

E(∫ t

0H2

s d〈X〉s)

≡ E(∫ t

0H2

s d〈M〉s)

<∞.

On pose

(H ·X)t ≡∫ t

0Hs dXs =

∫ t

0Hs dMs +

∫ t

0Hs dVs.

Remarquer qu’une integrale stochastique par rapport a un processus d’Ito (Xt) est la sommed’une integrale stochastique “pure” et d’une integrale de Riemann-Stieltjes.

2.5.3 Retour a l’integrale de Stratonovich

On peut maintenant definir l’integrale de Stratonovich de la maniere suivante. Etant donnes(Ht) et (Xt) deux processus d’Ito tels que

E(∫ t

0H2

s d〈X〉s)

<∞,

51

Page 56: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

on pose∫ t

0Hs dBs ≡ (H B)t = (H ·B)t +

1

2〈H,B〉t.

On a la proposition suivante.

Proposition 2.5.20. Soient (Bt) un mouvement brownien standard et f ∈ C3(R) telle que

E(∫ t

0(f ′(Bs))

2 ds)

<∞ et E(∫ t

0(f ′′(Bs))

2 ds)

<∞.

Alors

f(Bt)− f(B0) =∫ t

0f ′(Bs) dBs p.s.

Ceci montre bien le cote “agreable” du calcul de Stratonovich par rapport au calcul d’Ito ;l’absence de terme supplementaire dans la formule ci-dessus permet en effet d’utiliser desregles de calcul classiques sans se poser de questions (faire attention toutefois qu’on a besoind’hypotheses a priori plus fortes sur f). On a p.ex.

∫ t

0Bs dBs =

B2t −B202

.

Demonstration. Soit g = f ′. Par la definition ci-dessus, on a :

∫ t

0g(Bs) dBs =

∫ t

0g(Bs) dBs +

1

2〈g(B), B〉t.

Or par hypothese g ∈ C2(R) et E(∫ t0(g

′(Bs))2 ds) <∞, donc par la formule d’Ito,

g(Bt) = g(B0) +∫ t

0g′(Bs) dBs +

1

2

∫ t

0g′′(Bs) ds =Mt + Vt,

donc

〈g(B), B〉t = 〈M,B〉t =∫ t

0g′(Bs) 1 d〈B,B〉s =

∫ t

0g′(Bs) ds.

Autrement dit,

∫ t

0g(Bs) dBs =

∫ t

0g(Bs) dBs +

1

2

∫ t

0g′(Bs) ds

=∫ t

0f ′(Bs) dBs +

1

2

∫ t

0f ′′(Bs) ds = f(Bt)− f(B0),

par l’application inverse de la formule d’Ito. Ceci conclut la demonstration. ¤

52

Page 57: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

2.5.4 Formules d’Ito generalisees

Les deux formules qui suivent sont des generalisations des theoremes 2.5.1 et 2.5.7, respec-tivement.

Theoreme 2.5.21. Soit (Mt) une martingale continue de carre integrable et f ∈ C2(R)telle que

E(∫ t

0(f ′(Ms))

2 d〈M〉s)

<∞, ∀t > 0.

Alors

f(Mt)− f(M0) =∫ t

0f ′(Ms) dMs +

1

2

∫ t

0f ′′(Ms) d〈M〉s p.s.

Remarquer que seul le terme ds de la formule (5) a ete remplace par le terme d〈M〉s pourtenir compte de la variation quadratique de la martingale M .

Theoreme 2.5.22. Soient (Mt) martingale continue de carre integrable, (Vt) un processuscontinu a variation bornee et f ∈ C1,2(R× R) telle que

E

∫ t

0

(

∂f

∂x(Vs,Ms)

)2

d〈M〉s

<∞, ∀t > 0.

Alors pour tout t > 0,

f(Vt,Mt)− f(V0,M0) =∫ t

0

∂f

∂t(Vs,Ms) dVs +

∫ t

0

∂f

∂x(Vs,Ms) dMs

+1

2

∫ t

0

∂2f

∂x2(Vs,Ms) d〈M〉s p.s.

Remarquer que dans le cas particulier ou f(t, x) = g(t+ x), la formule ci-dessus se recrit

g(Vt +Mt)− g(V0 +M0) =∫ t

0g′(Vs +Ms) dVs +

∫ t

0g′(Vs +Ms) dMs

+1

2

∫ t

0g′′(Vs +Ms) d〈M〉s p.s.

ou encore, en posant Xt =Mt + Vt :

g(Xt)− g(X0) =∫ t

0g′(Xs) dXs +

1

2

∫ t

0g′′(Xs) d〈X〉s p.s.

Il ne faut cependant pas oublier ici que la premiere integrale est la somme de deux integralesde natures differentes !

53

Page 58: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

2.5.5 Formule d’integration par parties (IPP)

Soient (Xt), (Yt) deux processus d’Ito. Alors pour tout t ≥ 0, on a

Xt Yt −X0 Y0 =∫ t

0Xs dYs +

∫ t

0Ys dXs + 〈X,Y 〉t p.s.,

qu’on ecrit encore sous forme differentielle

d(Xt Yt) = Xt dYt + Yt dXt + d〈X,Y 〉t.

Demonstration. En utilisant la formule d’Ito generalisee ci-dessus, on trouve

(Xt + Yt)2 − (X0 + Y0)

2 = 2∫ t

0(Xs + Ys) d(Xs + Ys) + 〈X + Y 〉t,

(Xt − Yt)2 − (X0 − Y0)

2 = 2∫ t

0(Xs − Ys) d(Xs − Ys) + 〈X − Y 〉t,

En soustrayant les deux egalites ci-dessous, on obtient

4(Xt Yt −X0 Y0) = 4(∫ t

0Xs dYs +

∫ t

0Ys dXs

)

+ 〈X + Y 〉t − 〈X − Y 〉t.

Combine avec la definition de covariation quadratique, ceci donne finalement le resultat. ¤

Remarque 2.5.23. Si (Xt) ou (Yt) est a variation bornee, alors par la remarque 2.5.18,〈X,Y 〉t = 0 et on retrouve la formule d’integration par parties classique.

Exemple 2.5.24. Soient Xt = eBt et Yt = e−t2 . On a vu que dXt = 1

2Xt dt + Xt dBt ;

d’autre part, on a dYt = −12Yt dt. Posons maintenant Zt = Xt Yt = eBt− t

2 . Par la formuled’integration par parties, on obtient :

Zt − 1 =∫ t

0Xs dYs +

∫ t

0Ys dXs + 0,

car 〈X,Y 〉t = 0 ((Yt) est a variation bornee). On a donc

Zt − 1 =∫ t

0Xs(−

1

2Ys) ds+

∫ t

0Ys(

1

2Xs) ds+

∫ t

0YsXsdBs =

∫ t

0ZsdBs,

i.e. dZt = Zt dBt et Z0 = 1, qui est l’equation qu’on avait trouvee plus haut.

Exemple 2.5.25. Soient Xt =∫ t0 Hs dBs et Yt =

∫ t0 Ks dBs. On a

XtYt =∫ t

0(Hs Ys +KsXs) dBs +

∫ t

0HsKs ds.

54

Page 59: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

2.6 Equations differentielles stochastiques (EDS) Cours 10

2.6.1 Equations homogenes en temps

On a vu que Xt = eBt (aussi appele “mouvement brownien geometrique”) est solution del’equation

Xt − 1 =1

2

∫ t

0Xs ds+

∫ t

0Xs dBs,

qu’on ecrit encore sous forme differentielle :

dXt =1

2Xt dt+Xt dBt et X0 = 1.

De la meme facon, on peut voir que Xt = e(µ−σ2

2) t+σ Bt (avec µ ∈ R et σ > 0 fixes) est

solution dedXt = µXt dt+ σXt dBt et X0 = 1. (6)

Cette equation est appelee l’equation de Black & Scholes ; µ est appele le coefficient de derive(il traduit la tendance generale du processus) et σ le coefficient de diffusion (il traduit lavariabilite ou encore la “volatilite” du processus). Cette equation, ou des generalisations decelle-ci, sont couramment utilisees en mathematiques financieres pour decrire l’evolution desprix des actifs.

De maniere plus generale, on considere le probleme suivant. Etant donnes (Bt) un mouvementbrownien standard, x0 ∈ R et f, g : R → R, existe-t-il un processus (Xt) qui verifie

dXt = f(Xt) dt+ g(Xt) dBt et X0 = x0?

(dans l’exemple precedent, f(x) = µx et g(x) = σx). Pour repondre a cette question, on abesoin de la definition suivante.

Definition 2.6.1. Une fonction f : R → R est dite (globalement) lipschitzienne s’il existeK ≥ 0 tel que

|f(y)− f(x)| ≤ K|y − x|, ∀x, y ∈ R.

Remarque 2.6.2. - Si f est lipschitzienne, alors f est uniformement continue (et donccontinue) sur R.- Si f est continument derivable et f ′ est bornee, alors f est lipschitzienne. En effet :

|f(y)− f(x)| =∣

∫ y

xf ′(z)dz

≤ supz∈R

|f ′(z)| · |y − x|.

55

Page 60: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Theoreme 2.6.3. Soient (Bt, t ∈ R+) un mouvement brownien standard (p.r. a une fil-tration (Ft, t ∈ R+)), x0 ∈ R et f, g lipschitziennes. Alors il existe un unique processus(Xt, t ∈ R+) continu et adapte a (Ft, t ∈ R+) tel que

Xt = x0 +∫ t

0f(Xs) ds+

∫ t

0g(Xs) dBs p.s., ∀t ∈ R+. (7)

De plus, E(sup0≤t≤T X2t ) <∞ pour tout T > 0.

Remarque 2.6.4. - La solution (Xt) de l’equation ci-dessus est egalement appelee unesolution forte de l’equation (par opposition au concept de solution faible presente au para-graphe 2.6.4).- On appelle f(Xt) le terme de derive de l’equation et g(Xt) le terme de diffusion.

Demonstration.(idee principale)On definit

XT =

(Xt, t ∈ [0, T ]) continu et adapte a (Ft) tel que E( sup0≤t≤T

X2t ) <∞

.

Noter que l’espace vectoriel XT muni de la norme ‖X‖2T,2 = E(sup0≤t≤T X2t ) est complet. Pour

trouver le processus X ∈ XT solution de (7), on utilise la methode classique dite “methoded’iteration de Picard”, i.e. on definit une suite de processus (X (n)) de maniere recursive :

X(0)t = x0, X

(n+1)t = x0 +

∫ t

0f(X(n)

s ) ds+∫ t

0g(X(n)

s ) dBs.

Il se trouve que la suite (X (n)) est une suite de Cauchy dans XT , donc elle converge car XT

est complet, et on montre que la limite de la suite est solution de (7). De plus, on montreque si (Xt) et (Yt) sont des solutions de (7), alors Xt = Yt p.s. pour tout t ∈ R+.

Pour chaque etape, on a recours a l’estimation centrale suivante (qui se demontre en utilisantnotamment l’inegalite de Doob (b) et l’isometrie d’Ito) ; si on pose

φ(Y )t = x0 +∫ t

0f(Ys) ds+

∫ t

0g(Ys) dBs,

alors

E(

sup0≤t≤T

(φ(Y )t − φ(Z)t)2

)

≤ K E(

∫ T

0(Ys − Zs)

2 ds

)

.

¤

56

Page 61: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Remarque 2.6.5. Il est important de voir que le schema d’iteration de Picard ci-dessus,meme s’il est explicite, se rapproche tres lentement de la solution (Xt). Il est donc fortementdeconseille de l’appliquer pour trouver une approximation numerique de la solution (pourun schema numerique efficace, se referer a la section 2.10).

Proposition 2.6.6. Le processus (Xt) solution de l’equation (7) est un processus d’Ito.

Demonstration. On peut decomposer la solution comme Xt =Mt + Vt, ou

Mt = x0 +∫ t

0g(Xs) dBs et Vt =

∫ t

0f(Xs) ds.

Du fait que X ∈ XT et que g est lipscihtzienne, l’integrale stochastique∫ t0 g(Xs) dBs est bien

d’efinie et (Mt) est une martingale continue de carre integrable. D’autre part, du fait quet 7→ (Xt) et f sont des fonctions continues, le processus (Vt) est continument derivable, donccontinu et a variation bornee. Le processus (Xt) est donc un processus d’Ito . ¤

Exemple 2.6.7. L’equation de Black & Scholes

dXt = µXt dt+ σXt dBt et X0 = x0,

avec µ ∈ R et σ, x0 > 0 fixes, est un exemple d’equation admettant une unique solution(Xt), car f(x) = µx et g(x) = σx sont lineaires, donc lipschitziennes (pour la methode deresolution, voir exercices).

Exemple 2.6.8. Soit a, x0 ∈ R et σ > 0 fixes. On considere l’EDS

dXt = −aXt dt+ σ dBt et X0 = x0. (8)

Les fonctions f(x) = −ax et g(x) ≡ σ sont lipschitziennes, donc il existe un unique processus(Xt) solution de l’equation ci-dessus. Ce processus est appele le processus d’Ornstein-Uhlenbeck.

Proposition 2.6.9. La solution de l’EDS (8) est donnee par

Xt = e−at x0 +∫ t

0e−a(t−s) dBs.

Demonstration. Plutot que de verifier que le processus ci-dessus est magiquement solutionde (8) (noter que ceci a deja ete fait aux exercices !), on presente ici la methode de resolutionde l’equation, qui est une adaptation de la methode dite de “variation de la constante” aucas stochastique. Soit (Φt) le processus (deterministe) solution de l’equation differentielleordinaire (et homogene) :

dΦt = −aΦt dt et Φ0 = 1.

57

Page 62: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Il est connu que Φt = e−at. Ecrivons maintenant Xt = Φt Yt. On a alors par la formuled’integration par parties :

dXt = Φt dYt + (dΦt)Yt + d〈Φ, Y 〉t = ΦtdYt − aΦt Yt dt+ 0

car le processus (Φt) est a variation bornee. D’un autre cote, on a

dXt = −aXt dt+ σ dBt.

En identifiant les deux equations (et en se rappelant que Xt = Φt Yt), on trouve l’EDSsuivante pour (Yt) :

Φt dYt = σ dBt i.e. dYt =σ

Φt

dBt (et Y0 = x0),

donc

Yt = Y0 +∫ t

0

σ

Φs

dBs = x0 + σ∫ t

0eas dBs.

Ceci implique finalement que

Xt = e−at x0 + σ∫ t

0e−a(t−s) dBs.

¤

Remarquer encore que si x0 = 0 et a > 0, alors

E(Xt) = 0 et E(X2t ) = σ2

1− e−2at

2a→

t→∞σ2

2a,

i.e. le processus d’Ornstein-Uhlenbeck (avec a > 0) est un processus qui ne grandit pasindefiniment (comme c’est le cas pour le mouvement brownien), mais se stabilise autour dela valeur 0 avec une variance donnee (σ

2

2a).

Exemple 2.6.10. Considerons l’EDS

dXt = sin(Xt) dt+ cos(Xt) dBt et X0 = 0.

Ici, f(x) = sin(x) et g(x) = cos(x) sont lipschitziennes (car f ′ et g′ sont bornees), donc ilexiste une unique solution a l’equation, mais quelle est-elle ? Il se trouve que meme si la for-mulation de l’equation est assez simple, il n’existe pas de methode de resolution analytique !On voit donc l’interet de simuler numeriquement la solution d’une telle equation. Noter qued’autre part, il existe des methodes analytiques pour estimer le comportement asymptotiquede la solution.

58

Page 63: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Exemple 2.6.11. Soit a > 0. On considere l’EDS

dXt =a

Xt

dt+ dBt et X0 = 1.

La fonction f(x) = axn’est pas lipschitzienne en 0 (f ′(0) = −∞). Toutefois, il existe une

unique solution (forte) a l’equation (appelee processus de Bessel). La raison intuitive pourlaqelle ceci est verifie est que sitot que le processus Xt se rapproche de 0 (l’endroit ou f(x)n’est pas lipschitzienne), il est fortement repousse vers le haut par le terme de derive a

Xt

(noter toutefois que si a est petit, des choses etranges commencent a se produire).

Exemple 2.6.12. Soit a ∈ R. On considere l’EDS

dXt = aXt dt+√

Xt dBt et X0 = 0.

La fonction g(x) =√x n’est pas lipschitzienne en 0 (g′(0) =∞) et il n’existe pas de solution

forte, mais une solution dite “faible” (voir paragraphe 2.6.4), appelee processus de Feller.

Exemple 2.6.13. Considerons l’EDS

dXt = sgn(Xt) dBt et X0 = 0.

La fonction

g(x) = sgn(x) =

+1 si x > 0,0 si x = 0,

−1 si x < 0,

est discontinue en 0 et donc n’est pas lipschitzienne. L’equation n’admet pas de solutionforte, mais seulement une solution faible (a nouveau, voir paragraphe 2.6.4).

2.6.2 Equations inhomogenes en temps

On considere le probleme suivant. Etant donnes (Bt) un mouvement brownien standard,x0 ∈ R et f, g : R+ × R → R, existe-t-il un processus (Xt) qui verifie

dXt = f(t,Xt) dt+ g(t,Xt) dBt et X0 = x0?

Pour repondre a cette question, on a besoin de la definition suivante.

Definition 2.6.14. Une fonction f : R+×R → R est dite lipschitzienne en x s’il existe uneconstante K > 0 telle que

|f(t, y)− f(t, x)| ≤ K|y − x|, ∀t ∈ R+, x, y ∈ R.Theoreme 2.6.15. Si f, g : R+ × R → R sont continues (conjointement en t et en x) etlipschitziennes en x, alors il existe un unique processsus (Xt) solution de l’equation

Xt = x0 +∫ t

0f(s,Xs) ds+

∫ t

0g(s,Xs) dBs p.s., ∀t ∈ R+.

A nouveau, le processus (Xt) est appele une solution forte de l’equation (et c’est un processusd’Ito).

59

Page 64: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

2.6.3 Equations lineaires

Soient x0 ∈ R et a, σ : R+ → R continues et bornees. On appelle lineaire une EDS de laforme

dXt = a(t)Xt dt+ σ(t) dBt et X0 = x0. (9)

Remarque 2.6.16. On pourrait avoir envie plutot d’appeler “equation lineaire” une equationdu type

dXt = a(t)Xt dt+ σ(t)Xt dBt et X0 = x0,

qui constitue une generalisation de l’equation de Black & Scholes (6). Il se trouve que le faitde “multiplier” Xt et dBt dans le terme de droite implique que la solution de lequation n’estpas un processus gaussien et qu’on prefere appeler lineaire une equation dont la solution estun processus gaussien (mais ceci est arbitraire).

Definition 2.6.17. Soit (Φt, t ∈ R+) la solution de l’equation differentielle ordinaire

dΦt = a(t) Φt dt et Φ0 = 1.

Remarquer que Φt = exp(∫ t

0a(s) ds

)

.

Proposition 2.6.18. L’equation (9) admet une unique solution forte (Xt) donnee par

Xt = Φt x0 +∫ t

0

Φt

Φs

σ(s) dBs t ∈ R+.

Demonstration. Il est clair que f(t, x) = a(t)x et g(t, x) = σ(t) sont continues en (t, x) etlipschitziennes en x, donc l’equation (9) admet une uniqe solution. La methode de resolutionest du meme type que celle utilisee pour l’equation (8). On ecrit tout d’abord Xt = Φt Yt,d’ou on deduit que

dXt = Φt dYt + a(t) Φt Yt dt+ 0 = a(t)Xt dt+ σ(t) dBt.

De la, on tire que

Φt dYt = σ(t) dBt, i.e. Yt = x0 +∫ t

0

σ(s)

Φs

dBs,

et donc

Xt = Φt x0 +∫ t

0

Φt

Φs

σ(s) dBs.

¤

60

Page 65: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Exemple 2.6.19. (pont brownien ; cf. exercices) Considerons l’EDS

dXt = −Xt

1− tdt+ dBt, 0 < t < 1, et X0 = 0.

Ici, la fonction a(t) = − 11−t

n’est pas continue en t = 1, mais l’equation ci-dessus admettout de meme une unique solution forte jusqu’en t = 1. Noter que X1 = 0 p.s. et queE(X2

t ) = t(1− t).

2.6.4 Solution faible

Soient x0 ∈ R et f, g : R → R. On considere l’EDS

dXt = f(Xt) dt+ g(Xt) dBt et X0 = x0. (10)

On donne la definition suivante, qui peut paraıtre etrange au premier abord.

Definition 2.6.20. Une solution faible de l’equation (10) est un processus continu (Xt) telque les processus (Mt) et (Nt) definis respectivement par

Mt = Xt −X0 −∫ t

0f(Xs) ds et Nt =M2

t −∫ t

0g(Xs)

2 ds

sont des martingales.

Remarque 2.6.21. Le mouvement brownien standard (Bt) a disparu de la definition desolution faible ! Ainsi, une solution faible d’une EDS est une solution en loi, mais plus dutout une solution “trajectorielle” de l’equation (10).

La justification de cette definition est donnee ci-dessous.

Proposition 2.6.22. Supposons f , g continues, g bornee et supposons encore que l’equation(10) admette une solution forte (Xt). Alors (Xt) est une solution faible de (10).

Demonstration. Vu que g est bornee, il est clair que

Mt = Xt −X0 −∫ t

0f(Xs) ds =

∫ t

0g(Bs) dBs

est une martingale continue de carre integrable. De plus, la variation quadratique de (Mt)est donnee par 〈M〉t =

∫ t0 g(Xs)

2 ds, donc le processus (Nt) defini par

Nt =M2t −

∫ t

0g(Xs)

2 ds (11)

est egalement une martingale. ¤

61

Page 66: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Remarque 2.6.23. - Une EDS peut admettre une solution faible, mais pas de solutionforte ; il existe donc plus souvent une solution faible qu’une solution forte.- La question de l’unicite de la solution faible est par contre plus delicate ; il faut preciser cequ’on entend par “unique”.

Exemple 2.6.24. La solution faible de l’EDS

dXt = aXt dt+√

Xt dBt et X0 = 0

est un processus continu (Xt) tel que les processus (Mt) et (Nt) definis par

Mt = Xt − a∫ t

0Xs ds et Nt =M2

t −∫ t

0Xs ds

sont des martingales.

Exemple 2.6.25. La solution faible de l’EDS

dXt = sgn(Xt) dBt et X0 = 0.

est un processus continu (Xt) tel que

(Xt − 0 = Xt) et (X2t −

∫ t

01 ds = X2

t − t) sont des martingales.

Par le theoreme de Levy, la solution faible de l’equation ci-dessus est donc un mouvementbrownien standard ! (mais qui n’est pas le mouvement brownien standard (Bt) ; on ne peutpas remplacer Xt par Bt dans l’equation ci-dessus...)

2.6.5 Martingale exponentielle Cours 11

Definition 2.6.26. Soit M une martingale continue de carre integrable telle que M0 = 0 et〈M〉t ≤ Kt pour tout t ∈ R+. On definit la martingale exponentielle Y associee a M par

Yt = exp

(

Mt −〈M〉t2

)

, t ∈ R+.

Remarque 2.6.27. Noter que la condition 〈M〉t ≤ Kt n’impose pas forcement que lavariation quadratique (〈M〉t) soit un processus deterministe.

Proposition 2.6.28. Le processus (Yt) defini ci-dessus satisfait l’EDS

Yt = 1 +∫ t

0Ys dMs (i.e. dYt = Yt dMt et Y0 = 1),

et (Yt) est donc une martingale.

62

Page 67: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Demonstration. (idee principale)Remarquer que

Yt = f(〈M〉t,Mt), ou f(t, x) = exp(x− t

2)

et ∂f∂t

= −12f , ∂f

∂x= ∂2f

∂x2 = f . En appliquant le theoreme 2.5.22 (et en passant a dessein soussilence la condition d’integrablite enoncee dans le theoreme en question !), on trouve donc :

Yt − Y0 =∫ t

0(−1

2Ys) d〈M〉s +

∫ t

0Ys dMs +

1

2

∫ t

0Ys d〈M〉s =

∫ t

0Ys dMs.

¤

Remarque 2.6.29. La condition 〈M〉t ≤ Kt, meme si elle n’est pas utilisee explicitementci-dessus, a toute son importance (elle permet de justifier l’utilisation de la formule d’Ito).Noter qu’il est possible de montrer que le processus (Yt) est une martingale sous une conditionplus faible encore.

2.7 Theoreme de Girsanov

Comme vu precedemment, la solution de l’equation

dXt = f(t,Xt) dt+ g(t,Xt) dBt et X0 = x0,

n’est en general pas une martingale (sous la probabilite P). La question que l’on se pose iciest de savoir s’il existe une autre mesure de probabilite P sous laquelle le processus (Xt) soitune martingale.

L’application en mathematiques financieres est la suivante : pour evaluer le prix d’une optionsur un actif, on a besoin de la propriete de martingale. Pourtant, le prix d’un actif donnen’est en general pas une martingale, mais affiche une tendance a la hausse ou a la baisse.C’est pourquoi on desire definir une nouvelle probabilite sous laquelle celui-ci soit une mar-tingale, de maniere a pouvoir effectuer des calculs.

Premiere etape : definition du changement de probabilite

Soit (Mt) une martingale par rapport a (Ft), continue, de carre integrable telle que M0 = 0et 〈M〉t ≤ Kt pour tout t ∈ R+. On pose (Yt) la martingale exponentielle associee a (Mt)(voir paragraphe 2.6.5). On rappelle ici que Yt > 0 pour tout t ∈ R+.

On se place a horizon fini T > 0 (ce qui simplifie considerablement les choses) et on definit

PT (A) = E(1A YT ), A ∈ F .

63

Page 68: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Le triplet (Ω,F , PT ) forme un nouvel espace de probabilite. En effet :

PT (A) ≥ 0, ∀A ∈ F , car YT > 0,

PT (Ω) = E(YT ) = E(Y0) = 1, car (Yt) est une martingale,

et PT (∪∞n=1An) = E(∑∞n=1 1An

YT ) =∑∞

n=1 PT (An),

si (An)∞n=1 est une famille disjointe d’evenements dans F .

On montre d’autre part que si X est une v.a. telle que E(|X YT |) <∞, alors

ET (X) = E(X YT ).

Finalement, noter que P(A) = 0 si et seulement si PT (A) = 0 (on dit que les deux mesuresde probabilite P et PT sont “equivalentes”).

Deuxieme etape : martingales sous P et martingales sous PT

Lemme 2.7.1. Si Z est Ft-mesurable et telle que E(|Z YT |) <∞, alors ET (Z) = E(Z Yt).

Demonstration. Du fait que (Yt) est une martingale et que Z est Ft-mesurable, on a

ET (Z) = E(Z YT ) = E(Z Yt).

¤

Lemme 2.7.2. Le processus (Xt) est une martingale sous PT ssi (XtYt) est une martingalesous P.

Demonstration. On montre seulement que si (XtYt) est une martingale sous P, alors (Xt) estune martingale sous PT (pour la reciproque, voir exercices). Supposons donc que (XtYt) estune martingale sous P, i.e.

(i) ∀t ∈ [0, T ], Xt Yt est Ft −mesurable et E|XtYt| <∞,(ii) ∀0 ≤ s ≤ t ≤ T, E(XtYtZ) = E(XsYsZ), ∀Z Fs-mesurable et bornee.

De la, on deduit que

(i) Pour tout t ∈ [0, T ], Xt =XtYtYt

est Ft-mesurable et ET (|Xt|) = E(|Xt|YT ) = E(|Xt|Yt) <∞.

(ii) Soit 0 ≤ s ≤ t ≤ T et Z Fs-mesurable et bornee. Par le lemme 2.7.1 et la condition (ii)ci-dessus, on a

ET (XtZ) = E(XtZYt) = E(XsZYs) = ET (XsZ)

i.e. ET (Xt|Fs) = Xs, i.e. (Xt) est une martingale sous PT . ¤

64

Page 69: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Theoreme 2.7.3. (Girsanov)Soit (Zt) est une martingale continue de carre integrable sous P. Alors (Zt − 〈M,Z〉t) estune martingale sous PT .

Demonstration. (idee principale)Posons At = 〈M,Z〉t. Pour montrer que (Zt − At) est une martingale sous PT , il suffit demontrer par le lemme 2.7.2 que ((Zt − At)Yt) est une martingale sous P. Par la formuled’integration par parties, on a :

(Zt − At)Yt − (Z0 − 0)Y0 =∫ t

0(Zs − As) dYs +

∫ t

0Ys dZs −

∫ t

0Ys dAs + 〈Z − A, Y 〉t

Du fait que Y et Z sont des martingales sous P, les deux premiers termes∫ t0(Zs − As) dYs

et∫ t0 Ys dZs sont egalement des martingales sous P. On aura donc montre le resultat si on

montre que les deux derniers termes s’annulent, i.e.

−∫ t

0Ys dAs + 〈Z − A, Y 〉t = 0. (12)

Or dYt = YtdMt, donc dMt =1YtdYt (noter que Yt > 0) et

dAt = d〈M,Z〉t =1

Yt

d〈Y, Z〉t.

Ceci implique que∫ t

0Ys dAs =

∫ t

0d〈Y, Z〉s = 〈Y, Z〉t.

De l’autre cote, on sait que 〈Z − A, Y 〉t = 〈Z, Y 〉t, car A est a variation bornee. L’equation(12) est donc bien verifiee et le theoreme est demontre. ¤

Troisieme etape : application aux EDS

A) Soient (Bt) un mouvement brownien standard, x0 ∈ R et f : R+ × R → R une fonctioncontinue, lipschitzienne en x et bornee (i.e. |f(t, x)| ≤ K1 pour tous t, x). On considere (Xt)la solution de l’equation

dXt = f(t,Xt) dt+ dBt et X0 = x0.

Sous quelle mesure de probabilite PT le processus (Xt, t ∈ [0, T ]) est-il une martingale ?

Soit Mt = −∫ t0 f(s,Xs) dBs ; (Mt) est une martingale continue de carre integrable (sous P)

et on verifie que

〈M〉t =∫ t

0f(s,Xs)

2 ds ≤ K21 t

65

Page 70: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Soit (Yt) la martingale exponentielle associee a (Mt) et PT la probabilite definie par PT (A) =E(1A YT ).

Proposition 2.7.4. (i) (Xt) est une martingale sous PT .(ii) (Xt) est meme un mouvement brownien standard sous PT !

Demonstration. (i) Du fait que (Bt) est une martingale sous P, le theoreme de Girsanov ditque (Bt − 〈M,B〉t) est une martingale sous PT . Or

Bt − 〈M,B〉t = Bt +∫ t

0f(s,Xs) ds = Xt −X0,

donc le premier point est verifie.(ii) D’autre part, on a par definition :

〈X〉t = 〈B〉t = t,

car X est un processus d’Ito dont la partie martingale est egale a B. Or on peut montrerque la variation quadratique de X est la meme sous P et sous PT , donc par le theoreme deLevy, X est un mouvement brownien standard sous PT (remarquer que X est a trajcetoirescontinues). ¤

B) Soient (Bt) un mouvement brownien standard, x0 ∈ R et f, g : R+ × R → R deuxfonctions continues, lipschitziennes en x et telles que |f(t, x)| ≤ K1 et |g(t, x)| ≥ K2 pourtous t, x. On considere (Xt) la solution de l’equation

dXt = f(t,Xt) dt+ g(t,Xt) dBt et X0 = x0.

Remarque 2.7.5. L’hypothese |g(t, x)| ≥ K2 ci-dessus assure que le processus X est “non-degenere”, autrement dit qu’il a l’allure d’un mouvement brownien et pas celle d’une fonctiona variation bornee (ce qui serait le cas si g(t, x) = 0 p.ex.). Sans cette hypothese, il n’estplus possible de transformer le processus X en martingale en changeant la probabilite dereference.

Soit Mt = − ∫ t0 f(s,Xs)g(s,Xs)

dBs. On verifie que 〈M〉t ≤ K21

K22t et on pose (Yt) la martingale expo-

nentielle associee a (Mt) et Pt la probabilite definie par PT (A) = E(1A YT ).

Proposition 2.7.6. (i) (Xt) est une martingale sous PT et (ii) 〈X〉t =∫ t0 g(s,Xs)

2 ds.

Demonstration. (i) Soit Ct =∫ t0 g(s,Xs) dBs ; (Ct) est une martingale sous P, donc

Ct − 〈M,C〉t =∫ t

0g(s,Xs) dBs +

∫ t

0f(s,Xs) ds = Xt −X0

66

Page 71: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

est une martingale sous PT .(ii) A nouveau, l’egalite decoule de la definition de variation quadratique. ¤

En general, le processus (Xt) n’est donc pas un mouvement brownien standard sous PT . Maispeut-on exhiber un proceessus qui soit un mouvement brownien standard sous PT ? C’est lecas en effet : soit Bt = Bt +

∫ t0

f(s,Xs)g(s,Xs)

ds.

Proposition 2.7.7. (i) (Bt) est une martingale sous Pt

(ii) 〈B〉t = t, donc (Bt) est un mouvement brownien standard sous PT .

Demonstration. (i) Du fait que (Bt) est une martingale sous P,

Bt − 〈M,B〉t = Bt +∫ t

0

f(s,Xs)

g(s,Xs)ds = Bt

est une martingale sous Pt.(ii) clair (on utilise a nouveau le theoreme de Levy). ¤

Remarque importante : de la definition de (Bt), il decoule que

dXt = g(t,Xt) dBt.

Ceci montre d’une autre maniere que le processus (Xt) est une martingale sous PT .

Exemple 2.7.8. (modele de Black & Scholes)Soient µ ∈ R, σ, x0 > 0 fixes. On considere l’EDS

dXt = µXt dt+ σXt dBt et X0 = x0.

La fonction g(x) = σx ne satisfait pas l’hypothese de non-degenerescence mentionnee plushaut (car g(0) = 0), cependant, si on definit

Mt = −∫ t

0

µXs

σXs

dBs = −µ

σBt,

alors on voit que (Mt) est une martingale sous P et que 〈M〉t = µ2

σ2 t. Soit (Yt) la martingale

associee a (Mt) et PT (A) = E(1A YT ).

Par le theoreme de Girsanov, le processus (Xt) est une martingale sous PT . D’autre part, leprocessus (Bt) defini par

Bt = Bt +µ

σt

est un mouvement brownien standard sous PT et dXt = σXt dBt.

67

Page 72: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Application : formule de Black & Scholes

Definition 2.7.9. Une option d’achat europeenne est le droit d’acheter un actif (Xt) a untemps T futur au prix K fixe a l’avance.

Au temps T (aussi appele la “maturite” de l’option), la valeur de l’option est donc donneepar

ZT = (XT −K)+.

Supposons maintenant que l’actif (Xt) soit decrit par le modele de Black & Scholes del’exemple 2.7.8 (avec µ ∈ R, σ > 0 fixes) :

dXt = µXt dt+ σXt dBt et X0 = x0 > 0

et soit (Ft) la filtration a laquelle X est adapte. Sous cette hypothese, on peut montrer qu’ilexiste z0 ∈ R+ et une strategie d’investissement H sur le processus X (continue et adapteea (Ft)) tels que

ZT = z0 +∫ T

0Hs dXs.

(Ceci est une consequence du “theoreme de representation des martingales”.)

Question : A quel prix une banque doit-elle vendre l’option d’achat ZT au temps initialt = 0 de maniere a etre sure de pouvoir payer ZT au temps T ?

Reponse : Etant donne ce qui precede, elle doit vendre l’option au prix z0. Mais commentcalculer ce prix ?

Calcul de z0 :a) On a vu que (Xt) est une martingale sous la probabilite PT definie dans l’exemple 2.7.8.Donc le processus (Mt) defini par

Mt =∫ t

0Hs dXs t ∈ [0, T ],

est egalement une martingale sous PT , d’ou on tire que

z0 = ET (ZT ) = ET ((XT −K)+)

b) On sait d’autre part que (cf. exemple 2.7.8)

dXt = Xt dBt i.e. XT = x0 eσBT−σ2

2T ,

ce qui nous mene a la formule de Black & Scholes :

z0 = ET ((x0 eσBT−σ2

2T −K)+) =

R(x0 e

σy−σ22T −K)+ fT (y) dy,

ou fT est la densite de la loi N (0, T ). Remarquer que de maniere surprenante, le coefficientde derive µ n’entre pas en compte dans le calcul du prix z0 !

68

Page 73: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

2.8 Liens EDS ↔ EDP Cours 12

Le but de cette section est de montrer qu’on peut representer les solutions d’equations auxderivees partielles (EDP) classiques a l’aide de processus aleatoires.

Attention ! Les theoremes d’analyse cites ci-dessous sont legerement inexacts et donc par-semes de guillemets : voir la remarque 2.8.1, qui s’applique egalement aux resultats citesapres.

2.8.1 Lien mouvement brownien ↔ equation(s) de la chaleur

A) Soit (Bt, t ∈ R+) un mouvement brownien standard. On definit (Bxt , t ∈ R+), le mouve-

ment brownien partant au temps t = 0 du point x ∈ R par

Bxt = Bt + x, t ∈ R+.

Resultat d’analyse (equation de la chaleur progressive)Soient T > 0 et u0 ∈ C(R). Il existe alors une “unique” fonction u ∈ C1,2(R+×R) qui verifie

∂u

∂t(t, x) =

1

2

∂2u

∂x2(t, x), ∀(t, x) ∈ R+ × R,

“u(0, x) = u0(x)′′, ∀x ∈ R.

(13)

Remarque 2.8.1. - La solution de l’equation de la chaleur (13) n’est en realite pas unique.Toutefois, si on impose une (tres) faible condition supplementaire sur la solution u, alors uest unique.- Si u0 n’est pas C2, alors la solution en t = 0 ne peut etre C2 en x. Pour etre tout a faitexact, on devrait remplacer la condition u(0, x) = u0(x) par

limt↓0

u(t, x) = u0(x).

Lemme 2.8.2. Soit u la solution de l’equation (13). Pour tout (T, x) ∈ R+ × R fixe, leprocessus (u(T − t, Bx

t ), t ∈ [0, T ]) est une martingale.

Demonstration. Par la formule d’Ito (et le fait que dBxs = dBs, d〈Bx〉s = ds), on a

u(T − t, Bxt )− u(T, x)

=∫ t

0−∂u∂t

(T − s, Bxs ) ds+

∫ t

0

∂u

∂x(T − s, Bx

s ) dBxs +

1

2

∫ t

0

∂2u

∂x2(T − s, Bx

s ) d〈Bx〉s

=∫ t

0

(

−∂u∂t

(T − s, Bxs ) +

1

2

∂2u

∂x2(T − s, Bx

s )

)

ds+∫ t

0

∂u

∂x(T − s, Bx

s ) dBs

=∫ t

0

∂u

∂x(T − s, Bx

s ) dBs,

69

Page 74: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

car u satisfait l’equation (13) (on oublie ici de verifier la condition technique permettant d’ap-pliquer la formule d’Ito !). Le processus (u(T − t, Bx

t ), t ∈ [0, T ]) est “donc” une martingale.¤

Proposition 2.8.3. Soit u la solution de l’equation (13). Pour tout (T, x) ∈ R+ × R, on a

u(T, x) = E(u0(BxT )). (14)

Demonstration. Par le lemme precedent et la condition initiale dans (13), on trouve que

u(T, x) = E(u(T,Bx0 )) = E(u(0, Bx

T )) = E(u0(BxT )).

¤

Remarque 2.8.4. - Le resultat ci-dessus nous donne donc une representation probabilistede la solution de l’equation de la chaleur (13). Noter qu’on peut le reformuler de maniereplus “classique” :

u(T, x) =∫

Ru0(y) fT (y − x) dy,

ou fT est la densite de la loi N (0, T ). La fonction KT (x, y) = fT (y−x) est egalement appelee“noyau de Green de l’equation de la chaleur” en analyse.- Remarquer qu’il est possible de montrer dans l’autre sens (mais c’est beaucoup plus long)que la fonction u definie par (14) est solution de l’equation (13).

B) Soit (Bt, t ∈ R+) un mouvement brownien standard. On definit (Bt0,x0t , t ∈ [t0,∞[ ) le

mouvement brownien partant au temps t0 ≥ 0 du point x0 ∈ R par

Bt0,x0t = Bt −Bt0 + x0, t ≥ t0.

Resultat d’analyse (equation de la chaleur retrograde)Soient T > 0 et h ∈ C(R). Il existe alors une “unique” fonction u ∈ C1,2([0, T ] × R) quiverifie

∂u

∂t(t, x) +

1

2

∂2u

∂x2(t, x) = 0, ∀(t, x) ∈ [0, T ]× R,

“u(T, x) = h(x)′′, ∀x ∈ R.(15)

Lemme 2.8.5. Soit u la solution de l’equation (15). Pour tout (t0, x0) ∈ [0, T ] × R fixe, leprocessus (u(t, Bt0,x0

t ), t ∈ [t0, T ]) est une martingale.

Demonstration. Par la formule d’Ito (utilisee sur l’intervalle de temps [t0, t]), on a

u(t, Bt0,x0t )− u(t0, x0) =

∫ t

t0

∂u

∂t(s, Bt0,x0

s ) ds+∫ t

t0

∂u

∂x(s, Bt0,x0

s ) dBt0,x0s +

1

2

∫ t

t0

∂2u

∂x2(s, Bt0,x0

s ) ds

=∫ t

t0

∂u

∂x(s, Bt0,x0

s ) dBs,

70

Page 75: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

car u satisfait l’equation (15). Le processus (u(t, Bt0,x0t ), t ∈ [t0, T ]) est “donc” une martin-

gale. ¤

Proposition 2.8.6. Soit u la solution de l’equation (15). Pour tout (t0, x0) ∈ [0, T ]×R, ona

u(t0, x0) = E(h(Bt0,x0

T )).

Demonstration. Par le lemme precedent et la condition terminale dans (15), on trouve que

u(t0, x0) = E(u(t0, Bt0,x0t0 )) = E(u(T,Bt0,x0

t )) = E(h(Bt0,x0

T )).

¤

2.8.2 Lien EDS ↔ EDP paraboliques (formule de Feynman-Kac)

Soient t0 ∈ R+, x0 ∈ R, (Bt, t ∈ R+) un mouvement brownien standard et f, g : R+×R → Rdeux fonctions conjointement continues en (t, x) et lipschitziennes en x. On pose (X t0,x0

t , t ∈[t0,∞[ ) la solution de l’EDS

dXt = f(t,Xt) dt+ g(t,Xt) dBt et Xt0 = x0. (16)

On suppose de plus qu’il existe une constante K > 0 telle que

|g(t, x)| ≥ K, ∀(t, x) ∈ R+ × R.

Cette derniere hypothese est l’hypothese de “diffusion non-degeneree” effectuee a la section2.7.

Resultat d’analyse (EDP parabolique)Soient h ∈ C(R) et T > 0. Etant donne les hypotheses effectuees ci-dessus sur f et g, ilexiste une “unique” fonction u ∈ C1,2([0, T ]× R) qui verifie

∂u

∂t(t, x) + f(t, x)

∂u

∂x(t, x) +

1

2g2(t, x)

∂2u

∂x2(t, x) = 0, ∀(t, x) ∈ [0, T ]× R,

“u(T, x) = h(x)′′, ∀x ∈ R.(17)

Lemme 2.8.7. Soit u la solution de l’equation (17). Pour tout (t0, x0) ∈ [0, T ] × R fixe, leprocessus (u(t,X t0,x0

t ), t ∈ [t0, T ]) est une martingale.

Demonstration. Par la formule d’Ito (utilisee sur l’intervalle de temps [t0, t]), on a

u(t,X t0,x0t )− u(t0, x0)

=∫ t

0

∂u

∂t(s,X t0,x0

s ) ds+∫ t

0

∂u

∂t(s,X t0,x0

s ) dX t0,x0s +

1

2

∫ t

0

∂2u

∂x2(s,X t0,x0

s )d〈X t0,x0〉.

71

Page 76: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

En utilisant le fait que X est solution de (16), on trouve donc que

u(t,X t0,x0t )− u(t0, x0)

=∫ t

0

(

∂u

∂t(s,X t0,x0

s ) +∂u

∂x(s,X t0,x0

s ) f(s,X t0,x0s ) +

1

2

∂2u

∂x2(s,X t0,x0

s ) g(s,X t0,x0s )2

)

ds

+∫ t

0

∂u

∂x(s,X t0x0

s ) g(s,X t0,x0s ) dBs

=∫ t

0

∂u

∂x(s,X t0,x0

s ) g(s,X t0,x0s ) dBs,

car u satisfait l’equation (17). Le processus (u(t,X t0,x0t ), t ∈ [t0, T ]) est “donc” une martin-

gale. ¤

Proposition 2.8.8. (formule de Feynman-Kac)Soit u la solution de l’equation (17). Pour tout (t0, x0) ∈ [0, T ]× R, on a

u(t0, x0) = E(h(X t0,x0

T )).

Demonstration. Par le lemme precedent et la condition terminale dans (17), on trouve que

u(t0, x0) = E(u(t0, X t0,x0t0 )) = E(u(T,X t0,X0

T )) = E(h(X t0,x0

T ))

¤

Remarque 2.8.9. La formule donnee ci-dessus est l’une des nombreuses versions de laformule dite de Feynman-Kac (prononcer “Kats”). Une autre version de cette formule estdonnee en exercice, qui correspond plus a la formule de Feynman-Kac connue des physiciens.

Propriete de Markov et processus de diffusionOn donne ici une nouvelle version de la propriete de Markov enoncee au paragraphe 2.1.4.

A) Soit tout d’abord (Bt0,x0t ) un mouvement brownien partant du point x0 ∈ R au temps

t0 ∈ R+. On verifie que si t ≥ s ≥ 0, alors

Bs,B0,xs

t = B0,xt , (18)

En effet, on a par definition :

Bs,B0,xs

t = Bt −Bs +B0,xs = Bt −Bs +Bs −B0 + x = Bt −B0 + x = B0,xt .

La propriete (18) entraıne que

E(h(B0,xt )|FB0,x

s ) = E(h(B0,xt )|B0,xs ), ∀h ∈ Cb(R).

72

Page 77: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Noter que la propriete (18) traduit bien la meme idee que la propriete de Markov ci-dessus :le mouvement brownien parti du point x au temps 0 est le meme que celui qu’on sait etrepasse au point B0,x

s au temps s. Ainsi, l’evolution du mouvement brownien apres le tempss ne depend pas de l’histoire du processus avant s (donc en particulier, pas de la valeur x),mais seulement de la valeur du processus au temps s.

B) Soit maintenant (X t0,x0t ) la solution de l’EDS (16). On peut verifier que pour tout t ≥

s ≥ 0, on a egalement

Xs,X0,xs

t = X0,xt ,

ce qui implique que

E(h(X0,xt )|FX0,x

s ) = E(h(X0,xt )|X0,x

s ), ∀h ∈ Cb(R).

La solution d’une EDS est donc un processus de Markov. On l’appelle egalement un proces-sus de diffusion ou plus simplement une diffusion.

Generateur d’une diffusion

A) Diffusion homogene en tempsSoient x ∈ R, (Bt, t ∈ R) un mouvement brownien standard et f, g : R → R lipschitziennes.On pose X la solution de l’EDS

dXt = f(Xt) dt+ g(Xt) dBt et X0 = x.

Soit A l’operateur lineaire differentiel de C2(R) dans C(R) defini par

Av(x) = f(x) v′(x) +1

2g(x)2 v′′(x), v ∈ C2(R).

Alors les proprietes suivantes sont verifiees (cf. exercices) :

(i) si v′ est bornee, alors v(Xt)−∫ t

0Av(Xs) ds est une martingale,

(ii) limt↓0

E(

1

t(v(Xt)− v(x))

)

= Av(x),

(iii) limt↓0

E(

1

t(Xt − x)

)

= f(x) et limt↓0

E(

1

t(Xt − x)2

)

= g(x)2.

B) Diffusion inhomogene en tempsSoient x ∈ R, (Bt, t ∈ R) un mouvement brownien standard et f, g : R+ × R → R conjoin-tement continues en (t, x) et lipschitziennes en x. On pose X la solution de l’EDS

dXt = f(t,Xt) dt+ g(t,Xt) dBt et X0 = x.

73

Page 78: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Pour t ∈ R+ fixe, on pose At l’operateur lineaire differentiel de C2(R) dans C(R) defini par

Atv(x) = f(t, x) v′(x) +1

2g(t, x)2 v′′(x), v ∈ C2(R).

Pour u ∈ C1,2(R+ × R), on note encore

Atu(t, x) = f(t, x)∂u

∂x(t, x) +

1

2g(t, x)2

∂2u

∂x2(t, x).

De la meme maniere que ci-dessus, on montre que si ∂u∂x

est bornee, alors

u(t,Xt)−∫ t

0(∂u

∂s(s,Xs) + Asu(s,Xs)) ds est une martingale.

En particulier, si ∂u∂t

+ Atu = 0, alors le processus u(t,Xt) est une martingale.

Application : evaluation d’options europeennesSoient x0 ≥ 0, (Bt, t ∈ R) un mouvement brownien standard et f, g : R+ × R → R conjoin-tement continues en (t, x) et lipschitziennes en x. Supposons de plus qu’ il existe K1, K2 > 0telles que

|f(t, x)| ≤ K1 et |g(t, x)| ≥ K2, ∀(t, x) ∈ R+ × R.

On modelise l’evolution du prix d’un actif X par l’EDS

dXt = f(t,Xt) dt+ g(t,Xt) dBt et X0 = x0.

Une option europeenne d’echeance T > 0 sur l’actif (Xt) est une v.a. donnee par ZT = h(XT )pour une certaine fonction h ∈ C(R) (ZT represente la valeur de l’option au temps T ).

Soient (Ft) la filtration a laquelle le processus X est adapte et PT la probabilite sous laquellele processus X est une martingale. Par ce qu’on a vu precedemment, il existe egalement unm.b.s. (Bt) sous PT tel que

dXt = g(t,Xt) dBt.

On suppose ici (pour simplifier) que ZT peut s’ecrire comme ZT = Zt +∫ Tt Hs dXs, ou H

est une strategie d’investissement continue et adaptee a (Ft) et Zt est une v.a. positiveFt-mesurable. De la, on deduit que

ET (ZT |Ft) = Zt + ET

(

∫ T

0Hs dXs −

∫ t

0Hs dXs

Ft

)

= Zt,

car (Xt) est une martingale sour PT . Par la propriete de Markov, on a donc

Zt = ET (h(XT )|Ft) = ET (h(XT )|Xt) = z(t,Xt),

74

Page 79: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

ouz(t, x) = “ET (h(XT )|Xt = x)” = ET (h(X

t,xT )). (19)

Par ce qu’on vient de voir plus haut sur le lien entre EDS et EDP, ceci signifie que la fonctionz(t, x) est solution de l’equation :

∂z

∂t(t, x) +

1

2g(t, x)2

∂2z

∂x2(t, x) = 0. et z(T, x) = h(x) (20)

Au temps t < T , la valeur de l’option Zt est donc donnee par z(t,Xt), ou z est solution del’equation ci-dessus.

Remarque 2.8.10. - Le terme de derive f est absent de l’equation pour z (de la memefacon que µ est absent de la formule de Black & Scholes plus classique donnee a la sectionprecedente).- Dans le cas particulier ou f(t, x) = µx, g(t, x) = σx (attention : g(t, 0) = 0, mais ca nepose pas de probleme ici), on a

∂z

∂t(t, x) +

1

2σ2x2

∂2z

∂x2(t, x) = 0 et z(T, x) = h(x).

En resolvant cette equation (ou en repartant directement de la formule (19) et en utilisantl’expression trouvee pour la solution X t,x

T de l’EDS), on trouve donc que

z(t, x) =∫

Rh(x eσy−

σ22(T−t)) fT−t(y) dy,

ou fT−t est la densite de la loi N (0, T − t).

On peut finalement determiner quelle est la strategie (Ht) de couverture de l’option, enutilisant la formule d’Ito pour ZT = z(T,XT ) :

ZT − Zt = z(T,XT )− z(t,Xt)

=∫ T

t

∂z

∂t(s,Xs) ds+

∫ T

t

∂z

∂x(s,Xs) dXs +

1

2

∫ T

t

∂2z

∂x2(s,Xs) d〈X〉s

=∫ T

t

∂z

∂x(s,Xs) dXs,

car d〈X〉s = g(s,Xs)2 ds et z satisfait l’equation (20). D’autre part, on sait que

ZT − Zt =∫ T

tHsdXs.

En comparant les deux expressions, on trouve finalement que

Hs =∂z

∂x(s,Xs).

75

Page 80: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

2.9 Processus multidimensionnels Cours 13

Donnons tout d’abord une liste de definitions.

Definition 2.9.1. - Un mouvement brownien standard a n dimensions est une famille (B (1),. . . , B(n)) de n mouvements browniens standard par rapport a une meme filtration (Ft), sup-poses de plus independants les uns des autres.- Une martingale a n dimensions est une famille (M (1), . . . ,M (n)) de n martingales par rap-port a la meme filtration (Ft).- Un processus d’Ito a n dimensions est une famille (X (1), . . . , X(n)) de n processus d’Itoadaptes a la meme filtration (Ft).

Notation : On pose Bt = (B(1)t , . . . , B

(n)t ), Mt = (M

(1)t , . . . ,M

(n)t ) et Xt = (X

(1)t , . . . , X

(n)t ).

Integrale stochastique multidimensionnelleSoit B = (B(1), . . . , B(m)) un mouvement brownien standard a m dimensions, adapte a (Ft),et H = (H(i,j))n,mi,j=1 une famille de processus continus et adaptes a (Ft) telle que

E(∫ t

0(H(i,j)

s )2 ds)

<∞, ∀t ∈ R+, i ∈ 1, . . . , n, j ∈ 1, . . . ,m.

On definit

M(i)t =

m∑

j=1

∫ t

0H(i,j)

s dB(j)s , i = 1, . . . , n.

et Mt = (M(1)t , . . . ,M

(n)t ). Le processus (Mt) est une martingale continue de carre integrable

a n dimensions. On note encore de maniere plus concise : Mt =∫ t0 HsdBs.

Le processus M modelise (par exemple) les fluctuations de n actifs M (1), . . . ,M (n) duesa m sources aleatoires independantes B(1), . . . , B(m). Ceci permet de rendre compte descorrelations des actifs :

〈M (i),M (k)〉t =m∑

j,l=1

〈(H(i,j) ·B(j)), (H(k,l) ·B(l))〉t

=m∑

j,l=1

∫ t

0H(i,j)

s H(k,l)s d〈B(j), B(l)〉s =

m∑

j=1

∫ t

0H(i,j)

s H(k,j)s ds,

car 〈B(j), B(l)〉s =

s, si i = k,0, si i 6= k,

(B(i)⊥B(k) si i 6= k).

76

Page 81: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Formule d’Ito multidimensionnelleSoit X = (X (1), . . . , X(n)) un processus d’Ito a n dimensions et f ∈ C2(Rn) telle que

E

∫ t

0

(

∂f

∂xi

(Xs)

)2

d〈X(i)〉s

<∞, ∀t ∈ R+, i ∈ 1, . . . , n.

Alors

f(Xt)− f(X0) =n∑

i=1

∫ t

0

∂f

∂xi

(Xs) dX(i)s +

1

2

n∑

i,k=1

∫ t

0

∂2f

∂xi∂xk

(Xs) d〈X(i), X(k)〉s.

Exemple 2.9.2. Considerons le cas n = 2 : on a deja vu cette formule avec X(1)t = t,

X(2)t = Bt ou X

(1)t = Vt, X

(2)t =Mt avec V a variation bornee et M martingale.

Exemple 2.9.3. Pour n quelconque et X = B, on a 〈B(i), B(k)〉t =

t, si i = k,0, si i 6= k,

donc

f(Bt)− f(B0) =n∑

i=1

∫ t

0

∂f

∂xi

(Bs) dB(i)s +

1

2

∫ t

0∆f(Bs) ds,

ou ∆f(x) =n∑

i=1

∂2f

∂x2i(x). De la formule ci-dessus, on deduit que le processus

f(Bt)− f(B0)−1

2

∫ t

0∆f(Bs) ds

est une martingale (du moment que la condition E

∫ t

0

(

∂f

∂xi

(Bs)

)2

ds

<∞ est verifiee ∀i).

Donc en particulier, si f est harmonique (i.e. ∆f(x) = 0), alors f(Bt) est une martingale.D’autre part, si f est sous-harmonique (i.e. ∆f(x) ≥ 0), alors f(Bt) est une sous-martingale(d’ou l’origine de l’expression contre-intuitive “sous-martingale” pour un processus qui atendance a monter).

EDS multidimensionnellesSoient x0 ∈ Rn, B un mouvement brownien standard a m dimensions, f : R+×Rn → Rn unefonction continue en (t, x) et lipschitzienne en x, i.e.

‖f(t, x)− f(t, y)‖ ≤ K ‖x− y‖, ∀t ∈ R+, x, y ∈ Rn,

et g(1), . . . , g(m) : R+ × Rn → Rn continues en (t, x) et lipschitziennes en x. Alors il existeune unique solution forte (Xt) a l’equation

dXt = f(t,Xt) dt+m∑

j=1

g(j)(t,Xt) dB(j)t , X0 = x0. (21)

77

Page 82: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Rappelons qu’une solution forte est par definition un processus continu et adapte a la memefiltration que le mouvement brownien B, qui verifie de plus l’equation integrale correspondanta l’equation ci-dessus.

Exemple 2.9.4. Dans le cas ou n = 2 et m = 1, nous avons deja vu un exemple d’EDSmultidimensionnelle (ex. 3, serie 10) :

dXt = −1

2Xt dt− Yt dBt, X0 = 1,

dYt = −1

2Yt dt+Xt dBt, Y0 = 0.

Ici f(t, x, y) = (− 12x,−1

2y) et g(1)(t, x, y) = (−y, x) sont des fonctions lineaires, donc lipschit-

ziennes ; il existe donc une unique solution forte (Xt, Yt) a l’equation ci-dessus (analysee dansl’exercice 3 de la serie 10).

Exemple 2.9.5. Considerons encore le cas n = 2 et m = 1 :

dXt = Yt dt, X0 = 1,

dYt = −Xt dt+Xt dBt, Y0 = 0.

Cette equation, qui paraıt simple a resoudre au premier abord, ne l’est pas tant que ca enrealite !

Exemple 2.9.6. Le modele de Black & Scholes a plusieurs dimensions est le suivant :

dX(i)t = µiX

(i)t dt+

m∑

i=1

σijX(i)t dB

(j)t , X

(i)0 = x

(i)0 , i ∈ 1, . . . , n.

Remarquer que les n equations ci-dessus sont decouplees (contrairement aux deux exemplesprecedents), ce qui rend nettement plus facile la recherche de la solution.

EDS multidimensionnelles “lineaires”Soient x0 ∈ Rn, B un mouvement brownien standard a m dimensions, A = (aik) une matricen× n et Σ = (σij) une matrice n×m. On consiere l’equation

dXt = AXt dt+ Σ dBt, X0 = x0.

Ici, f (i)(t, x) =∑n

k=1 aikxk et g(i,j)(t, x) = σij (NB : g(i,j) est la ie composante du vecteur g(j)).

Pour expliciter la solution de cette equation, on a besoin de la solution de l’equation ho-mogene. Soit donc (Φt) le processus (deterministe) a valeurs dans l’espace des matricesn× n, solution de

dΦt = AΦt dt, Φ0 = Id,

78

Page 83: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

ou Id est la matrice identite. Suivant la matrice A consideree, le processus Φ peut etre difficilea determiner. Il s’ecrit toutefois sous la forme synthetique

Φt = exp(tA) =∑

l≥0

(tA)l

l!.

Remarquer d’autre part que Φt+s = Φt Φs et Φ−t = Φ−1t .

Proposition 2.9.7. La solution X de l’EDS “lineaire” ci-dessus est donnee par

Xt = Φt x0 +∫ t

0Φt−sΣ dBs

Demonstration. Ecrivons Xt = ΦtYt ; on a alors, du fait que Φ est un processus a variationbornee (i.e. chacune des entrees de la matrice est un processus a variation bornee) :

dXt = (dΦt)Yt + Φt dYt + 0 = AΦtYt dt+ Φt dYt

= AXt dt+ Σ dBt.

On en deduit donc quedYt = Φ−1t Σ dBt, Y0 = x0,

d’ou

Xt = Φt

(

x0 +∫ t

0Φ−1s Σ dBs

)

= Φt x0 +∫ t

0Φt−sΣ dBs.

¤

Exemple 2.9.8. Lorsque n = m = 1, l’equation ci-dessus devient :

dXt = aXt dt+ σ dBt,

dont la solution est le processus d’Ornstein-Uhlenbeck vu precedemment.

Exemple 2.9.9. Considerons le cas n = 2 et m = 1 :

dXt = Yt dt, X0 = 1,

dYt = −Xt dt+ σ dBt, Y0 = 0.

Ici, A =

(

0 1−1 0

)

et Σ =

(

)

. Formellement, ce systeme des deux equations du premier

ordre peut se recrire comme une seule equation du second ordre :

d2Xt

dt2= −Xt + σ

dBt

dt,

qui decrit le mouvement d’un ressort perturbe par un bruit blanc.

79

Page 84: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Vecteur de derive, matrice de diffusion et solution faibleRevenons au cas general. Le processus X solution forte de l’EDS (21) est appele une diffusion(c’est aussi un processus de Markov). On verifie que :

(i) Le processus M(i)t = X

(i)t −

∫ t

0f (i)(s,Xs) ds est une martingale pour tout i ∈ 1, . . . , n ;

le vecteur f(t, x) est appele vecteur de derive du processus X.

(ii) Du fait que

〈X(i), X(k)〉t = 〈M (i),M (k)〉t =m∑

j,l=1

∫ t

0g(i,j)(s,Xs) g

(k,l)(s,Xs) d〈B(j), B(l)〉s

=∫ t

0

m∑

j=1

g(i,j)(s,Xs) g(k,j)(s,Xs) ds,

on trouve que le processus

N(i,k)t =M

(i)t M

(k)t −

∫ t

0

m∑

j=1

g(i,j)(s,Xs) g(k,j)(s,Xs) ds

est une martingale pour tout i, k ∈ 1, . . . , n. La matrice G(t, x) definie par

G(i,k)(t, x) =m∑

j=1

g(i,j)(t, x) g(k,j)(t, x)

est appele la matrice de diffusion du processus X (noter que G(t, x) = g(t, x) g(t, x)T ).

Finalement, un processus X tel que les processus M (i) et N (i,k) definis ci-dessus sont desmartingales pour tout i, k ∈ 1, . . . , n est appele une solution faible de l’EDS (21).

Existence d’une messure martingaleCi-dessous, on recherche ici des conditions suffisantes sur f et G garantissant l’existence d’unemesure de probabilite PT sous laquelle les processus X (1), . . . , X(n) soient simultanement desmartingales sur l’intervalle [0, T ].

Remarque 2.9.10. Comme on l’a vu plus haut, l’existence d’une mesure martingale permetde fixer un prix et une strategie de couverture a des options en mathematiques financieres.Cette derniere affirmation n’est toutefois pas tout a fait exacte. Pour que cela soit possible, ilfaut encore que la mesure martingale soit unique (sinon, on voit bien que le prix et la strategiede couverture dependront de la mesure martingale choisie). Nous n’entrerons cependant pasplus loin dans les details dans ce cours.

80

Page 85: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Voici donc les hypotheses supplementaires a effectuer sur f etG ; il existeK1, K2 > 0 telles que

(i) ‖f(t, x)‖ ≤ K1, ∀t ∈ R+, x ∈ Rn,

(ii)n∑

i,k=1

G(i,k)(t, x) ξiξk ≥ K2 ‖ξ‖2, ∀t ∈ R+, x, ξ ∈ Rn.

Si l’hypothese (ii) est satisfaite, on dit que la diffusion X est non-degeneree.

Remarque 2.9.11. Du fait que G(t, x) = g(t, x) g(t, x)T , il est toujours vrai quen∑

i,k=1

G(i,k)(t, x) ξiξk ≥ 0, ∀t, x, ξ. (22)

L’hypothese (ii) assure que pour un point (t, x) donne, on a de plus l’inegalite stricte :n∑

i,k=1

G(i,k)(t, x) ξiξk > 0, ∀ξ 6= 0. (23)

Etant donne que (22) est verifie, la condition (23) peut se reformuler de plusieurs manieresequivalentes :

(a) toutes les valeurs propres de G(t, x) sont positives,(b) detG(t, x) > 0,(c) G(t, x) est inversible,(d) rang G(t, x) = n.

Ceci nous amene a la remarque suivante : du fait que G(t, x) = g(t, x) g(t, x)T et que g(t, x)est une matrice n×m, on sait que rang G(t, x) ≤ m ∧ n, donc que

si m < n, alors rang G(t, x) < n, ∀(t, x), (24)

auquel cas l’hypothese (ii) ci-dessus ne peut etre satisfaite.

Proposition 2.9.12. Sous les hypotheses (i) et (ii) effectuees ci-dessus, il existe une mesuremartingale PT (i.e. une mesure de probabilite sous laquelle tous les processus X (1), . . . , X(n)

sont simultanement des martingales).

Demonstration. On definit les processus et fonctions suivants :

Z(i)t =

m∑

j=1

∫ t

0g(i,j)(s,Xs) dB

(j)s , i ∈ 1, . . . , n,

h(i)(t, x) =n∑

k=1

f (k)(x) (G−1)(k,i)(t, x), i ∈ 1, . . . , n,

Mt = −n∑

i=1

∫ t

0h(i)(s,Xs) dZ

(i)s .

81

Page 86: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Remarquer que Z(i) est une martingale sous P pour tout i ∈ 1, . . . , n, de meme queM . Onpeut verifier que 〈M〉t ≤ Kt, et on definit Y et PT comme a la section 2.7. Par le theoreme

de Girsanov, on sait donc que pour tout l ∈ 1, . . . , n, Z (l)t − 〈M,Z(l)〉t est une martingalesous PT . Calculons ce processus :

Mt = −n∑

i,k=1

m∑

j=1

∫ t

0f (k)(s,Xs) (G

−1)(k,i)(s,Xs) g(i,j)(s,Xs) dB

(j)s

〈M,Z(l)〉t = −n∑

i,k=1

m∑

j=1

∫ t

0f (k)(s,Xs) (G

−1)(k,i)(s,Xs) g(i,j)(s,Xs) g

(l,j)(s,Xs) ds

= −n∑

i,k=1

∫ t

0f (k)(s,Xs) (G

−1)(k,i)(s,Xs)G(i,l)(s,Xs) ds

= −n∑

k=1

∫ t

0f (k)(s,Xs) δkl ds = −

∫ t

0f (l)(s,Xs) ds

Donc

Z(l)t − 〈M,Z(l)〉t =

m∑

j=1

∫ t

0g(i,j)(s,Xs) dB

(j)s +

∫ t

0f (l)(s,Xs) ds = X

(l)t −X

(l)0

est une martingale sous PT pour tout l ∈ 1, . . . , n et la proposition est demontree. ¤

Exemple 2.9.13. Appliquons le resultat ci-dessus au modele de Black & Scholes multimen-sionnel (cf. exemple 2.9.6). Dans ce cas, la matrice de diffusion G ne depend que de x et estdonnee par

G(i,k)(x) =m∑

j=1

σijσkj xixk,

La diffusion X est donc non-degeneree du moment que la matrice G0 donnee par G(i,k)0 =

∑mj=1 σijσkj est de rang n (le fait que rang G(x) soit strictement plus petit que n lorsque

l’une des composantes de x est nulle ne pose pas de probleme ici, car on peut montrer faci-lement qu’aucune des composantes de la diffusion X ne touche le point 0 au cours du temps).

Etant donne la remarque (24), on voit que rang G0 = n n’est possible que si m ≥ n. Onpeut en fait montrer que la condition m ≥ n est necessaire pour l’existence d’une mesuremartingale (et que rang G0 = n est une condition necessaire et suffisante).

82

Page 87: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Exemple de lien EDS-EDP dans le cas multidimensionnel Cours 14

Il est possible de generaliser tous les resultats de la section 2.8 au cas multidimensionnel.Toutefois, notre but ici est de considerer un autre type d’equation aux derivees partielles,dite elliptique (pour le cas unidimensionnel, se referer a l’exercice 3, serie 9).

Resultat d’analyse (EDP elliptique)Soient D un domaine ouvert borne dans Rn, ∂D sa frontiere, D = D ∪ ∂D et h ∈ C(∂D).Alors il existe une unique fonction u ∈ C2(D) ∩ C(D) telle que

∆u(x) = 0, ∀x ∈ D,u(x) = h(x), ∀x ∈ ∂D. (25)

Noter que la solution u est une fonction a valeurs dans R (et non dans Rn).

Soit (Bxt ) un mouvement brownien a n dimensions partant au temps t = 0 du point x ∈ D.

Soit egalement τ = inft > 0 : Bxt 6∈ D, le premier temps de sortie du domaineD (remarquer

que τ est un temps d’arret et que Bxτ ∈ ∂D).

Proposition 2.9.14. La solution de l’equation (25) s’ecrit :

u(x) = E(h(Bxτ )), ∀x ∈ D.

Demonstration. On montre tout d’abord que le processus (u(Bxt ), t ≥ 0) est une martingale

(unidimensionnelle). En utilisant la formule d’Ito multidimensionnelle, on a pour tout t < τ(condition qui assure que Bx

s ∈ D pour tout s ≤ t) :

u(Bxt )− u(B

x0) =

n∑

i=1

∫ t

0

∂u

∂xi

(Bxs) dB

x,(i)s +

1

2

∫ t

0∆u(Bx

s) ds

=n∑

i=1

∫ t

0

∂u

∂xi

(Bxs) dB

x,(i)s ,

etant donne que u satisfait (25). Le processus (u(Bxt )) est bien une martingale, donc en

appliquant le theoreme d’arret (et en laissant passer quelques details), on obtient :

u(x) = E(u(Bx0)) = E(u(Bx

τ )) = E(h(Bxτ )),

ou on a utilise la condition de bord de l’equation (25) (ce qui est rendu possible par le faitque Bx

τ ∈ ∂D). ¤

83

Page 88: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

2.10 Analyse et simulation numeriques des EDS

Considerons l’EDS (unidimensionnelle)

dXt = f(t,Xt) dt+ g(t,Xt) dBt, X0 = x0.

Sous des hypotheses generales (p. ex. f, g continues en (t, x) et lipschitziennes en x), on saitqu’il existe une unique solution forte (Xt) a une telle equation. Pourtant, des que f et g sontun peu compliquees, on ne connaıt pas d’expression analytique pour la solution. On com-prend donc l’interet de developper des methodes pour simuler numeriquement la solution detelles equations.

Schema d’EulerLe schema presente ici est l’adaptation au cas aleatoire du schema d’Euler classique pour lesequations differentielles ordinaires (EDO). Son analyse differe toutefois en plusieurs aspects(voir plus loin).

Supposons donc qu’il existe une unique solution forte a l’equation ci-dessus (sans quoi lamethode numerique decrite ci-dessous est vouee a l’echec). Pour t > r, on a donc l’egalite

Xt = Xr +∫ t

rf(s,Xs) ds+

∫ t

rg(s,Xs) dBs.

En supposant que t est proche de r, on peut utiliser la continuite des fonctions s 7→ f(s,Xs)et g 7→ g(s,Xs) pour approximer la relation ci-dessus par

Xt ' Xr + f(r,Xr) (t− r) + g(r,Xr) (Bt −Br).

(Noter qu’on a choisi a dessein le point a gauche de l’intervalle de facon a approximerl’integrale d’Ito). Soient maintenant T ∈ R+ etN ∈ N fixes ; en posant ∆t = T

N, t = (n+1)∆t

et r = n∆t, on trouve donc

X(n+1)∆t ' Xn∆t + f(n∆t,Xn∆t)∆t+ g(n∆t,Xn∆t) (B(n+1)∆t −Bn∆t), (26)

ou B(n+1)∆t−Bn∆t est une v.a. N (0,∆t) independante de Fn∆t (rappel : (Ft) est la filtrationa laquelle sont adaptes les processus (Bt) et (Xt)). De la, on deduit le schema numeriquesuivant :

X(N)0 = x0, X

(N)(n+1)∆t = X

(N)n∆t + f(n∆t,X

(N)n∆t)∆t+ g(n∆t,X

(N)n∆t) ξn+1

√∆t, 0 ≤ n < N,

ou (ξn)Nn=1 est une suite de v.a. i.i.d. ∼ N(0, 1) (de telle sorte a ce que les v.a. ξn+1

√∆t et

(B(n+1)∆t −Bn∆t) soient identiquement distribuees). Ceci definit le schema numerique X (N)

84

Page 89: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

aux instants n∆t. Pour definir le schema sur l’intevalle [0, T ] tout entier, on “relie les pointsentre eux”, i.e. on definit pour t ∈ ]n∆t, (n+ 1)∆t[ :

X(N)t = X

(N)n∆t + (t− n∆t) (X

(N)(n+1)∆t −X

(N)n∆t).

Ainsi, (X(N)t , t ∈ [0, T ]) definit une suite de processus stochastiques.

Noter que la demarche ci-dessus est equivalente a celle decrite au paragraphe 2.1.2 concernantl’approximation du mouvement brownien par une marche aleatoire (qui correspond au casparticulier f ≡ 0 et g ≡ 1).

Remarque 2.10.1. Attention : une erreur courante en analyse numerique consiste a confondrel’approximation (26) avec le schema numerique defini une ligne plus bas.

ConvergencesUne fois defini le schema numerique X (N), on peut se demander combien celui-ci est prochede la solution X. Du fait qu’on a affaire a des processus aleatoires, on a le choix entre plu-sieurs notions de convergence.

A) Convergence en loiDe la meme maniere que dans le cas f ≡ 0 et g ≡ 1 etudie au paragraphe 2.1.2, on peutmontrer que sous les hypotheses effectuees,

P(X(N)t1 ≤ x1, . . . , X

(N)tm ≤ xm) →

N→∞P(Xt1 ≤ x1, . . . , Xtm ≤ xm),

pour tout m ≥ 1, t1, . . . , tm ∈ [0, T ], x1, . . . , xm ∈ R. Ainsi, la suite de processus (X (N))converge en loi vers X.

Remarque 2.10.2. Pour obtenir la convergence en loi, on peut aussi considerer dans leschema numerique une suite de v.a. (ξn)

Nn=1 i.i.d. telles que P(ξn = +1) = P(ξm = −1) = 1

2,

ou n’importe quelle autre suite de v.a. i.i.d. de moyenne nulle et de variance unite. Ca n’estpar contre pas vrai pour ce qui va suivre.

Remarque 2.10.3. S’il existe une unique solution faible a l’equation, alors la suite X (N)

definie ci-dessus converge egalement en loi vers la solution faible.

B) Convergence en moyenneLa convergence en loi ne dit rien sur la distance entre les trajectoires du schema numeriqueet celles de la solution. Pour estimer cette distance, on a besoin de propositions comme cellequi suit.

85

Page 90: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Proposition 2.10.4. Sous les hypotheses effectuees (et quelques hypotheses techniques ad-ditionnelles), il existe une constante CT > 0 telle que

E( sup0≤t≤T

|X(N)t −Xt|) ≤

CT√N.

Cette proposition est donnee sans demonstration. La technique de demonstration est similairea celle utilisee pour montrer l’existence et l’unicite de la solution de l’equation originale (notertoutefois que les processus approximant la solution sont completement differents dans lesdeux cas ; le schema d’iteration de Picard ne permet en aucun cas d’obtenir une estimationaussi precise que celle donnee ci-dessus).

Remarque 2.10.5. - A cause du facteur 1√N, on dit que le schema d’Euler est d’ordre 1

2

pour les EDS. Remarquer que pour les EDO, le schema d’Euler est par contre d’ordre 1, i.e.

sup0≤t≤T

|X(N)t −Xt| ≤

CT

N.

La perte de precision dans le cas aleatoire vient essentiellement du facteur√∆t present

dans le terme “integrale d’Ito” du schema. Nous verrons plus loin comment remedier a ceprobleme (cf. schema de Milstein).- La constante CT depend des constantes de Lipschitz de f et g et augmente exponentielle-ment avec T (ce qui est egalement vrai pour les EDO).

Generalisations et interet pratique- Pour p ≥ 1, on a

E( sup0≤t≤T

|X(N)t −Xt|p) ≤

CT

Np/2.

(NB : Ceci ne veut pas dire que l’ordre de convergence est meilleur !)- Pour des diffusions multidimensionnelles, l’ordre de convergence reste le meme (i.e. estindependant de la dimension de la diffusion).

L’interet pratique de la simulation des EDS est le suivant : on a vu qu’il est possible derepresenter la solution d’une EDP classique a l’aide de la solution d’une EDS, au moyend’une formule du type :

u(t, x) = E(h(X t,xT )).

Pour simuler numeriquement la solution d’une EDP dont on ne connaıt pas l’expressionanalytique, on a donc deux possibilites : soit utiliser des methodes classiques sans passerpar la formule de representation ci-dessus ; soit simuler numeriquement le processus X t,x

jusqu’au temps T , puis approximer l’esperance ci-dessus. Pour ce faire, une solution simpleest d’utiliser la loi des grands nombres, i.e. d’approximer l’esperance par la moyenne de M

86

Page 91: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

realisations independantes de la variable aleatoire (avec M grand) ; ceci implique de repeterM fois la simulation du processus X sur l’intervalle [t, T ] !

Il faut egalement noter que l’approximation de l’esperance ci-dessus par une moyenne posedes problemes car la moyenne possede elle-meme une variance non-negligeable. Pour remediera ce probleme, des techniques dites “de reduction de variance” sont utilisees, mais toujoursde maniere ad hoc.

Malgre tout, cette methode de simulation des EDP par des processus aleatoires presente uncertain interet, surtout lorsque la dimension de la diffusion (i.e. du vecteur x) est grande,ce qui arrive frequemment en mathematiques financieres (ou la dimension du vecteur x estegale au nombre d’actifs a prendre en consideration, qui est generalement de l’ordre d’unedizaine en pratique). Donnons deux raisons pour justifier cet interet :

- Les methodes classiques (deterministes) de resolution des EDP deviennent de plus en plusdifficiles a mettre en pratique lorsque la dimension spatiale augmente. On peut penser parexemple a la methode des elements finis qui fonctionne parfaitement en dimension 2 et 3(etant donne qu’elle a ete developpee principalement pour la mecanique des fluides), maisqui devient quasiment impossible a implementer au-dela de la dimension 3. Par contre, lesschemas de simulation des EDS sont faciles a implementer en dimension superieure a 3.

- L’ordre de convergence des methodes deterministes diminue fortement lorsque la dimen-sion augmente, alors que celui obtenu avec les methodes stochastiques ne depend pas de ladimension, comme deja mentionne plus haut.

Schema de MilsteinCe schema est un raffinement du schema d’Euler ; sa convergence est d’ordre 1.

Repartons de l’equation de base. Pour t > r, on a :

Xt = Xr +∫ t

rf(s,Xs) ds+

∫ t

rg(s,Xs) dBs

Si on suppose maintenant que g ∈ C1,2(R+×R), alors on peut developper g(s,Xs) en utilisantla formule d’Ito :

g(s,Xs) = g(r,Xr) +∫ s

r

∂g

∂r(u,Xu) du+

∫ s

r

∂g

∂x(u,Xu) dXu +

1

2

∫ s

r

∂2g

∂x2(u,Xu) d〈X〉u

= g(r,Xr) +∫ s

r

∂g

∂t(u,Xu) du+

∫ s

r

∂g

∂x(u,Xu) f(u,Xu) du

+∫ s

r

∂g

∂x(u,Xu) g(u,Xu) dBu +

1

2

∫ s

r

∂2g

∂x2(u,Xu) g(u,Xu)

2 du.

87

Page 92: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Ainsi on trouve que

g(s,Xs) = g(r,Xr) +∫ s

r

∂g

∂x(u,Xu) g(u,Xu) dBu +

∫ s

rHu du,

ou H est un certain processus continu. On peut donc approximer g(s,Xs) par

g(s,Xs) ' g(r,Xr) +∂g

∂x(r,Xr) g(r,Xr) (Bs −Br) +Hr (s− r).

En introduisant cette approximation dans l’equation pour X, on trouve :

Xt ' Xr + f(r,Xr) (t− r) + g(r,Xr) (Bt −Br) +∂g

∂x(r,Xr) g(r,Xr)

∫ t

r(Bs −Br) dBs

+Hr

∫ t

r(s− r) dBr.

Or un calcul rapide montre que

∫ t

r(Bs −Br) dBs =

(Bt −Br)2 − (t− r)

2.

et que∫ t

r(s− r) dBs ∼ N

(

0,∫ t

r(s− r)2 ds =

(t− r)3

3

)

.

Ainsi, le premier terme est d’ordre t− r tandis que le second est d’ordre (t− r)3/2. Si donct = (n + 1)∆t et r = n∆t, le second terme sera negligeable par rapport au premier. C’estpourquoi on ne garde que le premier terme dans l’approximation, qui devient :

Xt ' Xr + f(r,Xr) (t− r) + g(r,Xr) (Bt −Br) +∂g

∂x(r,Xr) g(r,Xr)

(Bt −Br)2 − (t− r)

2.

Ceci nous amene a definir le schema numerique suivant :

X(N)0 = x0, X

(N)(n+1)∆t = X

(N)n∆t + f(n∆t,X

(N)n∆t)∆t+ g(n∆t,X

(N)n∆t) ξn+1

√∆t

+∂g

∂x(n∆t,X

(N)n∆t) g(n∆t,X

(N)n∆t) (

ξ2n+1 − 1

2)∆t,

ou (ξn)Nn=1 est une suite de v.a. i.i.d. ∼ N(0, 1).

Proposition 2.10.6. Sous beaucoup d’hypotheses (principalement f , g et les derivees de gcontinues en (t, x) et lipschitziennes en x), on a

E( sup0≤t≤T

|X(N)t −Xt|) ≤

CT

N.

Le schema de Milstein est donc un schema d’ordre 1 (mais qui necessite un developpementde second ordre faisant intervenir la formule d’Ito !).

88

Page 93: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

2.11 Pour conclure Cours 15

Dans cette section, nous passons en revue un certain nombre de points laisses de cote dansle cours.

Convergence des martingalesSoitM une martingale continue. On peut se poser la question de savoir sous quelles conditionsMt converge losque t tend vers l’infini. Il y a plusieurs reponses possibles a cette question.Voici un exemple de reponse.

Proposition 2.11.1. SiE(sup

t≥0|Mt|2) <∞, (27)

alors il existe une v.a. M∞ telle que

E(|Mt −M∞|2) →t→∞

0, et Mt = E(M∞|Ft). (28)

Remarque 2.11.2. - Le mouvement brownien standard B ne satisfait pas la condition (27).- La condition plus faible E(supt≥0 |Mt|) < ∞ ne suffit pas a garantir l’existence d’une v.a.M∞ telle que E(|Mt −M∞|) →

t→∞0 et Mt = E(M∞|Ft).

Seconde version du theoreme d’arretSoient M une martingale continue verifiant (27) et 0 ≤ τ1 ≤ τ2 ≤ ∞ deux temps d’arret.Alors

E(Mτ2|Fτ1) =Mτ1 . (29)

(Pour la demonstration, on utilise le fait que Mτ = E(M∞|Fτ ) pour tout temps d’arret τ , cequ’il faut bien sur demontrer !)

Remarque 2.11.3. Pour que l’egalite (29) soit verifiee, on voit donc qu’il est necessaired’effectuer une hypothese soit sur les temps d’arret τ1 et τ2, soit sur la martingale elle-meme(sans quoi on arrive a une contradiction avec des martingales du type “quitte ou double”evoquees au chapitre 1).

Martingale arretee

Proposition 2.11.4. Soient M une martingale continue et τ un temps d’arret. Alors leprocessus N defini par Nt =Mt∧τ est egalement une martingale continue.

Ceci se demontre aisement (remarquer qu’apres le temps d’arret τ , le processus N estconstant). En particulier, posons τa = inft > 0 : |Mt| ≥ a, avec a > 0 fixe. On voitque

E(supt≥0|Mt∧τa |2) ≤ a2 <∞.

89

Page 94: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Par la proposition 2.11.1, on obtient donc que

E(Mτ2∧τa |Fτ1) =Mτ1∧τa .

pour tout 0 ≤ τ1 ≤ τ2 ≤ ∞. En choisissant τ1 = 0 et τ2 = ∞, on trouve donc queE(Mτa) = E(M0), i.e. le theoreme d’arret s’applique ici meme si le temps d’arret τa n’est pasborne et qu’on ne fait aucune hypothese sur M . Cette propriete a ete utilisee en particulierdans l’exercice 3 de la serie 9.

Martingale locale

Definition 2.11.5. Une martingale locale est un processus M tel qu’il existe une suite crois-sante de temps d’arret 0 ≤ τ1 ≤ . . . ≤ τn ≤ . . . avec τn →

n→∞ ∞ et (Mt∧τn) martingale pour

tout n ≥ 1.

Donc si M est une martingale locale, on ne sait pas a priori que E(|Mt|) < ∞, ni queE(Mt|Fs) =Ms. Il faut arreter le processusM au temps d’arret τn pour retrouver la proprietede martingale (remarquer qu’on peut toujours se restreindre a la suite de temps d’arretτn = inft > 0 : |Mt| ≥ n).

Remarque 2.11.6. - Par la proposition 2.11.4, toute martingale est une martingale locale.- Reciproquement, si M est une martingale locale et E(sup0≤s≤t |Ms|) <∞ pour tout t > 0,alors M est une martingale (par contre, la condition E(|Mt|) <∞ pour tout t > 0 ne suffitpas).

Meme si la definition de martingale locale paraıt un peu plus compliquee a saisir au premierabord, nous allons voir que cette notion permet de simplifier grandement les enonces destheoremes, car on n’a plus beosin d’aucune hypothese d’integrabilite sur M . Dans ce qui vasuivre, on considere toujours des martingales locales continues.

Variation quadratique d’une martingale locale continue

Definition 2.11.7. La variation quadratique d’une martingale locale continueM est l’uniqueprocessus A croissant, continu et adapte tel que A0 = 0 et (M 2

t − At) est une martingalelocale continue. On note At = 〈M〉t.

Troisieme version du theoreme de LevySoit M une martingale locale continue telle que 〈M〉t = t pour tout t > 0. Alors M est unmouvement brownien standard.

90

Page 95: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Integrale stochastiqueSoient M une martingale locale continue et H un processus continu adapte. Moyennantquelques precautions, il est possible de definir l’integrale stochastique Nt =

∫ t0 Hs dMs. Le

processus N ainsi defini est egalement une martingale locale continue. Ceci se demontre enconsiderant la suite de temps d’arret

τn = inft > 0 : |Mt| ≥ n ou∫ t

0H2

s d〈M〉s ≥ n.

et en remarquant que le processus (Nt∧τn) est une martingale pour tout n ≥ 1.

Remarque 2.11.8. On n’a plus besoin d’une condition supplementaire sur H pour s’assurerque l’integrale stochastique est bien definie !

Semi-martingale continueUne semi-martingale continue est un processus X qui s’ecrit X = M + V , ou M est unemartingale locale continue et V est un processus continu adapte a variation bornee tel queV0 = 0.

Remarque 2.11.9. Attention : le terme “semi-martingale continue” a deja ete utilise (abu-sivement) dans ce cours pour designer un processus d’Ito.

Formules d’ItoVoyons ici deux cas particuliers de la formule d’Ito, ou l’avantage de considerer des martin-gales locales apparaıt clairement.

a) Soient M une martingale locale continue et f ∈ C2(R). Alors

f(Mt)− f(M0) =∫ t

0f ′(Ms) dMs +

1

2

∫ t

0f ′′(Ms) d〈M〉s.

Remarquer que f(M) est une semi-martingale continue, etant la somme d’une martingalelocale continue et d’un processus continu adapte a variation bornee.

b) Soient B un m.b.s. a n dimensions et f ∈ C2(Rn). Alors

f(Bt)− f(B0) =n∑

i=1

∫ t

0

∂f

∂xi

(Bs) dB(i)s +

1

2

∫ t

0∆f(Bs) ds.

Remarquer que les deux formules ci-dessus sont valides sans aucune condition d’integrabilitesupplementaire !

91

Page 96: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Martingale exponentielle

Proposition 2.11.10. Soit M une martingale locale continue telle que M0 = 0. Alors leprocessus Y defini par Yt = exp(Mt − 〈M〉t

2) est une martingale locale continue. Si de plus

〈M〉t ≤ Kt pour tout t > 0, alors Y est une martingale.

Demonstration. La premiere affirmation decoule de la formule d’Ito (a) ci-dessus. Pourdemontrer la seconde, posons

Zt = e2(Mt−〈M〉t).

Par la formule d’Ito, on voit que Z est une martingale locale continue. De plus,

Y 2t = e2Mt−〈M〉t = Zt e〈M〉t

Soit maintenant (τn) une suite de temps d’arret telle que (Yt∧τn) est une martingale pourtout n ≥ 1 (cette suite existe car Y est une martingale locale). Alors par l’inegalite de Doob,on a

E( sup0≤s≤t

|Ys∧τn|2) ≤ 4E(Y 2t∧τn) ≤ 4E(Zt∧τn eKt) ≤ 4 eKt,

par l’hypothese et le fait que E(Zt∧τn) = 1 pour tout n ≥ 1. Donc par l’inegalite de Cauchy-Schwarz,

E( sup0≤s≤t

|Ys|)2 ≤ E( sup0≤s≤t

|Ys|2) = limn→∞E( sup

0≤s≤t|Ys∧τn|2) ≤ 4eKt,

d’ou Y est une martingale par la remarque 2.11.6. ¤

Remarque 2.11.11. On peut montrer que Y est une martingale sous une condition plusfaible, dite de Novikov :

E(

e〈M〉t

2

)

<∞, ∀t > 0.

Martingales associee au mouvement brownien standard en dimension n- Pour n ≥ 2, on a

‖Bt‖ − ‖B0‖ =n∑

i=1

∫ t

0

B(i)s

‖Bs‖dB(i)s +

1

2

∫ t

0

n− 1

‖Bs‖ds,

ou l’integrale stochastique du membre de droite est une martingale (on peut meme montrerque c’est un mouvement brownien standard en utilisant la troisieme version du theoreme deLevy citee plus haut).

- Pour n = 3, on a1

‖Bt‖− 1

‖B0‖=

n∑

i=1

∫ t

0

B(i)s

‖Bs‖3dB(i)s + 0,

92

Page 97: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

(car ∆( 1‖x‖) = 0 pour x 6= 0). Dans ce cas cependant, l’integrale stochastique a droite n’est

pas une martingale ; c’est seulement une martingale locale.

Noter qu’on a de maniere plus generale : Mt = log(‖Bt‖) est une martingale locale lorsquen = 2 et Mt =

1

‖Bt‖n−2est une martingale locale lorsque n ≥ 3 (malgre le fait que E(|Mt|) <

∞ pour tout t > 0 dans ces deux cas).

Remarque 2.11.12. Dans les deux derniers exemples, f n’est pas derivable en 0, mais can’est pas grave car P(∃t > 0 : Bt = 0) = 0 lorsque n ≥ 2. Pour la dimension n = 1, les choseschangent, comme le montre le paragraphe suivant.

Formule de TanakaSoit B un m.b.s. de dimension 1. Par une application naıve de la formule d’Ito, on devraitalors avoir, au vu de ce qui precede :

|Bt| − |B0| =∫ t

0sgn(Bs) dBs + 0?

Ca n’est cependant pas possible, car le theoreme de Levy implique que l’integrale stochas-tique dans le membre de droite est un m.b.s., tandis que |Bt| n’est clairement pas un m.b.s.(en particulier parce que ce processus est toujours positif). Le probleme ici est que f(x) = |x|n’est pas derivable en 0 et que le m.b.s. Bt repasse regulierement en 0 (alors que ca n’est pasle cas en dimension superieure).

Posons donc

Lt = limε↓0

1

4ε|s ∈ [0, t] : |Bs| < ε|,

ou |A| est la mesure (de Lesbesgue) de l’ensemble de A. Lt represente en quelque sorte letemps passe par le m.b.s. B au point x = 0 pendant l’intervalle de temps [0, t] (meme si onpourrait penser a priori que ce temps est nul, ca n’est pas le cas !). On peut demontrer alorsla formule etrange suivante :

|Bt| − |B0| =∫ t

0sgn(Bs) dBs +

1

2Lt.

Une justification “a la main” de cette formule est que si f(x) = |x|, alors f ′(x) = sgn(x) et“f ′′(x) = δ0(x)”, ainsi le terme d’Ito devient “ 1

2

∫ t0 δ0(Bs) ds”, qui represente bien la moitie

du temps passe par B en x = 0 sur l’intervalle [0, t].

93

Page 98: COURS DE PROBABILITES ET CALCUL … · Le but du cours est de donner une premiµere id¶ee du sujet µa des¶etudian ts provenant d’ho-rizons difi¶eren ts

Bibliographie

1) Rappels de probabilites

* N. Bouleau, “Probabilites de l’ingenieur”, Hermann, 1986.* R. Durrett, “The essentials of probability”, The Duxbury Press, 1994.* S. M. Ross, “Initiation aux probabilites”, PPUR, 1987.* Virtual laboratories in probability and statistics : http ://www.math.uah.edu/stat/.

2) Theorie des probabilites

* P. Billingsley, “Probability and measure”, Wiley, 1995.* R. Durrett, “Probability : theory and examples”, The Duxbury Press, 1996.

3) Introduction au calcul stochastique et aux mathematiques financieres

* D. Lamberton, B. Lapeyre, “Introduction au calcul stochastique applique a la finance”,Ellipses, 1997. (existe aussi en anglais)* Th. Mikosch, “Elementary stochastic calculus with finance in view”, World Scientific, 1998.* B. Øksendal, “Stochastic differential equations. An introduction with applications” (cor-rected 5th ed.), Springer Verlag, 2000.

Ces trois ouvrages sont recommandes pour leur cote clair et introductif !

4) Calcul stochastique avance

* R. Durrett, “Stochastic calculus. A practical introduction”, CRC Press 1996.* I. Karatzas, S. E. Shreve, “Brownian motion and stochastic calculus”, Springer Verlag,1991.* Ph. Protter, “Stochastic integration and differential equations. A new approach”, SpringerVerlag, 1990.* D. Revuz, M. Yor, “Continuous martingales and Brownian motion”, Springer Verlag, 1999.

5) Simulation numerique des EDS

* P. Kloeden, E. Platen, “Numerical solution of stochastic differential equations”, SpringerVerlag, 1992. (un second tome existe aussi avec exercices corriges)

Remarque. La presente liste n’est bien sur de loin pas exhaustive !

94