16
Probabilités MASTER ÉCOLES DINGÉNIEURS AGRÉGATION MATHÉMATIQUES Valérie Girardin Nikolaos Limnios Cours complet Exercices d’application corrigés Problèmes de synthèse Processus stochastiques et applications

Valérie Girardin & Nikolaos Limnios Probabilités … · Nikolaos Limnios est professeur à l’Université de Technologie de Compiègne (UTC), Laboratoire de Mathématiques Appliquées

  • Upload
    hakhanh

  • View
    231

  • Download
    0

Embed Size (px)

Citation preview

ISBN 978-2-311-40015-1

WWW.VUIBERT.FR

Prob

abili

tés.

Pro

cess

us s

toch

astiq

ues

et a

pplic

atio

nsCo

urs

& e

xerc

ices

cor

rigé

s

9 782311 400151

MA

STER

, ÉC

OLE

S D

’IN

GÉN

IEU

RS

& A

GR

ÉGAT

ION

MAT

HÉM

ATIQ

UES

Valérie Girardin & Nikolaos Limnios

ProbabilitésProcessus stochastiques et applications

Probabilités

MASTERÉCOLES D’INGÉNIEURSAGRÉGATIONMATHÉMATIQUES

Valérie GirardinNikolaos Limnios

• Cours complet• Exercices d’application corrigés• Problèmes de synthèse

Processus stochastiques et applications

Rédigé principalement à l’attention des étudiants en Master demathématiques et en écoles d’ingénieurs, cet ouvrage présente des notionscomplexes de la théorie des probabilités à travers une introduction auxprocessus stochastiques et à leurs applications.Composé d’un cours complet, de nombreux exercices corrigés et deproblèmes de synthèse, ce manuel servira également de base de révision auconcours de l’Agrégation de mathématiques.

Agrégée de mathématiques, Valérie Girardin est maître de conférences à l’Université de Caen Basse-Normandie, Laboratoire de Mathématiques Nicolas Oresme, et habilitée à diriger les recherches.

Nikolaos Limnios est professeur à l’Université de Technologie de Compiègne (UTC), Laboratoire deMathématiques Appliquées.

Sommaire

Notations1. Suites aléatoires indépendantes2. Conditionnement et martingales3. Chaînes de Markov4. Notions générales sur les processus

5. Processus markoviens et semi-markoviens

Problèmes à résoudreÀ la fin de chaque chapitre, on trouvera des exercices suivis de leurs corrigés

CV_Probabilite_Processus2NEW:EP 17/12/13 10:45 Page 1

“bqL” — 2013/12/12 — 10:57 — page 228 — #238

“bqM” — 2013/12/17 — 9:21 — page III — #1

Table des matières

Avant-propos V

Notations VII

1 Suites aléatoires indépendantes 11.1 Suites infinies . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.1 Suites d’événements . . . . . . . . . . . . . . . . . . . 31.1.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . 5

1.2 Sommes aléatoires . . . . . . . . . . . . . . . . . . . . . . . . 81.3 Convergence et théorèmes limites . . . . . . . . . . . . . . . . 13

1.3.1 Différents types de convergence . . . . . . . . . . . . . 141.3.2 Théorèmes limites . . . . . . . . . . . . . . . . . . . . 15

1.4 Exercices et compléments . . . . . . . . . . . . . . . . . . . . 23

2 Conditionnement et martingales 292.1 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.1.1 Conditionnement par rapport à un événement . . . . . 292.1.2 Probabilités conditionnelles . . . . . . . . . . . . . . . 312.1.3 Lois conditionnelles . . . . . . . . . . . . . . . . . . . 342.1.4 Espérance conditionnelle . . . . . . . . . . . . . . . . . 352.1.5 Conditionnement et indépendance . . . . . . . . . . . 422.1.6 Détermination pratique . . . . . . . . . . . . . . . . . 44

2.2 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . 472.3 Martingales à temps discret . . . . . . . . . . . . . . . . . . . 49

2.3.1 Définitions et propriétés . . . . . . . . . . . . . . . . . 492.3.2 Inégalités remarquables . . . . . . . . . . . . . . . . . 542.3.3 Martingales et temps d’arrêt . . . . . . . . . . . . . . 572.3.4 Convergence des martingales . . . . . . . . . . . . . . 602.3.5 Martingales de carré intégrable . . . . . . . . . . . . . 61

2.4 Exercices et compléments . . . . . . . . . . . . . . . . . . . . 64

3 Chaînes de Markov 733.1 Propriétés générales . . . . . . . . . . . . . . . . . . . . . . . 73

3.1.1 Fonction de transition et exemples . . . . . . . . . . . 743.1.2 Chaînes de Markov et martingales . . . . . . . . . . . 833.1.3 Chaînes de Markov et temps d’arrêt . . . . . . . . . . 84

“bqM” — 2013/12/17 — 9:21 — page IV — #2

IV Table des matières

3.2 Décomposition de l’espace d’état . . . . . . . . . . . . . . . . 863.3 Loi stationnaire et comportement asymptotique . . . . . . . . 933.4 Chaînes de Markov périodiques . . . . . . . . . . . . . . . . . 1013.5 Chaînes de Markov finies . . . . . . . . . . . . . . . . . . . . 105

3.5.1 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . 1053.5.2 Application en fiabilité . . . . . . . . . . . . . . . . . . 111

3.6 Processus de branchement . . . . . . . . . . . . . . . . . . . . 1143.7 Exercices et compléments . . . . . . . . . . . . . . . . . . . . 118

4 Notions générales sur les processus 1334.1 Propriétés générales . . . . . . . . . . . . . . . . . . . . . . . 1334.2 Stationnarité et ergodicité . . . . . . . . . . . . . . . . . . . . 1414.3 Processus à accroissements indépendants . . . . . . . . . . . . 1484.4 Processus ponctuels sur la droite . . . . . . . . . . . . . . . . 151

4.4.1 Notions générales . . . . . . . . . . . . . . . . . . . . . 1514.4.2 Processus de renouvellement . . . . . . . . . . . . . . 1534.4.3 Processus de Poisson . . . . . . . . . . . . . . . . . . . 1584.4.4 Résultats asymptotiques . . . . . . . . . . . . . . . . . 161

4.5 Exercices et compléments . . . . . . . . . . . . . . . . . . . . 165

5 Processus markoviens et semi-markoviens 1735.1 Processus de Markov de sauts . . . . . . . . . . . . . . . . . . 173

5.1.1 Processus de Markov . . . . . . . . . . . . . . . . . . . 1735.1.2 Définition et fonction de transition . . . . . . . . . . . 1765.1.3 Générateur infinitésimal et équations de Kolmogorov . 1795.1.4 Chaîne immergée et classification des états . . . . . . 1825.1.5 Loi stationnaire et comportement asymptotique . . . . 189

5.2 Processus semi-markoviens . . . . . . . . . . . . . . . . . . . . 1935.2.1 Processus de renouvellement markoviens . . . . . . . . 1935.2.2 Classification des états et comportement asymptotique 196

5.3 Exercices et compléments . . . . . . . . . . . . . . . . . . . . 199

Problèmes à résoudre 209

Bibliographie 219

Index 223

Table des figures 229

“bqM” — 2013/12/17 — 9:21 — page 29 — #37

CHAPITRE 2

Conditionnement et martingales

Nous présentons d’abord dans ce chapitre les lois conditionnelles et l’espé-rance conditionnelle en suivant une démarche de difficulté croissante. Nousétudions le conditionnement en nous plaçant dans le cas où la loi condition-nelle existe, ce qui est toujours vérifié pour des variables aléatoires à valeursdans Rd. Par contre, nous définissons l’espérance conditionnelle dans le casgénéral. Un paragraphe est dédié au calcul pratique de lois et espérancesconditionnelles.

Nous présentons ensuite les temps d’arrêt, intéressants en eux-mêmes etnécessaires à l’étude des martingales et des chaînes de Markov.

La théorie des martingales à temps discret qui suit est basée sur l’espé-rance conditionnelle. Nous donnons leurs propriétés fondamentales dont lethéorème d’arrêt, quelques inégalités remarquables et différents théorèmesde convergence, en particulier pour les martingales de carré intégrable.

2.1 Conditionnement

Nous commençons par un cas simple, qui permet de mettre en place desnotations qui seront ensuite utiles dans le cas le plus général.

2.1.1 Conditionnement par rapport à un événement

Lorsque l’on sait qu’un événement donné a été réalisé, on est amené à mo-difier la probabilité considérée pour tenir compte de cette information.

Définition-Théorème 2.1 Soient (Ω,F ,P) un espace de probabilité et Bun événement non négligeable. La formule

P(A | B) =P(A ∩B)P(B)

(2.1)

définit une probabilité P(· | B) sur (Ω,F) appelée probabilité conditionnelleà B ou sachant B.

“bqM” — 2013/12/17 — 9:21 — page 30 — #38

30 Chapitre 2. Conditionnement et martingales

Démonstration.- L’application est clairement à valeurs dans [0, 1], avecP(Ω | B) = 1.Si (An) est une suite d’événements disjoints deux à deux, alors

P

( ⋃

n≥0

An | B)

=P[(∪n≥0An) ∩B]

P(B)=

P[∪n≥0(An ∩B)]P(B)

.

Or, par σ-additivité de P, nous avons P[∪n≥0(An ∩B)] =∑

n≥0 P(An ∩B),d’où P(∪n≥0An | B) =

∑n≥0 P(An | B).

Pour tous événements A et B non négligeables, il découle directementde la définition d’une probabilité conditionnelle que

P(A | B)P(B) = P(B | A)P(A) = P(A ∩B).

Ceci se généralise à toute famille finie d’événements comme suit.

Proposition 2.2 (Formule des probabilités composées) Soient A1,. . . , An des événements. Si P(A1 ∩ · · · ∩An−1) > 0 alors

P

( n⋂

i=1

Ai

)= P(A1)P(A2 | A1)P(A3 | A1∩A2) . . .P(An | A1∩A2∩· · ·∩An−1).

Démonstration.- Par récurrence, car P(A1 ∩A2) = P(A1)P(A2 | A1) et

P(A1 ∩ · · · ∩An) = P(An | A1 ∩ · · · ∩An−1)P(A1 ∩ · · · ∩An−1),

par définition de la probabilité conditionnelle.

Si X est une variable aléatoire intégrable et B un événement non négli-geable, l’espérance conditionnelle de X sachant B (ou par rapport à B) estpar définition égale à son espérance par rapport à la probabilité condition-nelle à B, soit

E (X | B) =∫

Ω

X(ω)P(dω | B).

Elle a donc toutes les propriétés de l’espérance. On la calcule de la manièresuivante.

Proposition 2.3 Si X est une variable aléatoire intégrable et B un événe-ment non négligeable, alors

E (X | B) =E (X11B)P(B)

=1

P(B)

B

X(ω)dP(ω).

Démonstration.- Pour X = 11A, avec A ∈ F , la relation est vérifiéed’après la définition (2.1).Pour une variable étagée Xn =

∑ni=1 ai11Ai

, elle est également vérifiée parlinéarité de l’espérance.

“bqM” — 2013/12/17 — 9:21 — page 31 — #39

2.1 Conditionnement 31

Si X est positive, elle est la limite d’une suite (Xn) de variables étagées.Donc par le théorème de convergence monotone, nous avons E (Xn | B) րE (X | B) et E (Xn11B) ր E (X11B).Enfin, pour X réelle intégrable, nous concluons en considérant la décompo-sition X = X+ −X−, où X+ = sup(X, 0) et X− = − inf(X, 0).

Ce conditionnement par rapport à l’événement B peut être vu comme unconditionnement par rapport à la tribu engendrée par B, en définissant pourtout A ∈ F ,

P[A | σ(B)](ω) =

P(A | B) si ω ∈ B

P(A | B) sinon.

et donc pour toute variable X ,

E [X | σ(B)](ω) =

E (X | B) si ω ∈ B

E (X | B) sinon.

C’est la généralisation de ces notions au conditionnement par rapport à unesous-tribu quelconque de F que nous présentons ici.

2.1.2 Probabilités conditionnelles

Considérons d’abord un système de constituants B = B1, . . . , Bn de Ω,c’est-à-dire une partition constituée d’événements non négligeables. Si l’onsavait a priori que Bi a été réalisé, alors la probabilité conditionnelle d’unévénement A sachant B serait naturellement P(A ∩ Bi)/P(Bi). Par consé-quent, nous pouvons interpréter la probabilité conditionnelle de A sachantB sous la forme

P(A | B)(ω) =n∑

i=1

P(A ∩Bi)P(Bi)

11Bi(ω), ω ∈ Ω.

La probabilité conditionnelle P(A | B) ainsi définie est une variable aléa-toire et il est intéressant de remarquer qu’elle est σ(B)-mesurable et qu’ellevérifie ∫

B

P(A | B)dP = P(A ∩B), B ∈ B.

De plus, E [P(A | B)] = P(A).Ceci suggère la définition suivante de la probabilité conditionnelle P(A |

G) par rapport à une sous-tribu G quelconque de F .

Définition 2.4 Soient G une sous-tribu de F et A un événement. La proba-bilité conditionnelle de A sachant G est une variable aléatoire G-mesurablevérifiant ∫

B

P(A | G)dP = P(A ∩B), B ∈ G.

Nous la noterons P(A | G)

“bqM” — 2013/12/17 — 9:21 — page 32 — #40

32 Chapitre 2. Conditionnement et martingales

La probabilité conditionnelle dépend évidemment de la probabilité P. Elleest de plus seulement définie p.s., puisque c’est une variable aléatoire.

Exemple 2.5 P(A | Ø,Ω) est la variable aléatoire constante P(A). ⊳

Le théorème suivant constitue une autre définition possible de la proba-bilité conditionnelle à G.

Théorème 2.6 La probabilité conditionnelle P(A | G) est la projectionorthogonale de la variable aléatoire 11A ∈ L2(Ω,F ,P) sur L2(Ω,G,P), c’est-à-dire que P(A | G) est la classe d’équivalence dans L2(Ω,F ,P) des variablesaléatoires Y ∈ L2(Ω,F ,P) G-mesurables telles que

E (Y Z) = E (11AZ), Z ∈ L2(Ω,G,P).

Démonstration.- C’est évident pour Z =∑n

i=1 ai11Ai, avec ai ∈ R et

Ai ∈ G. Nous considérons ensuite des variables Z positives et nous concluonspour toute variable Z réelle avec Z = Z+ − Z−.

Exemple 2.7 Si G = σ(Bi, i ∈ I), où Bi : i ∈ I est un système deconstituants fini ou dénombrable de Ω, alors la relation suivante est vérifiée.

P(A | G) =∑

i∈I

P(A ∩Bi)P(Bi)

11Bi.

En effet, la variable aléatoire Y = P(A | G) étant G-mesurable, nous pouvonsécrire Y =

∑i∈I ai11Bi

, avec ai ∈ R. Par conséquent

P(A ∩Bi) =∫

Bi

Y dP = aiP(Bi),

d’où

P(A | Bi) = ai =1

P(Bi)

Bi

P(A | G)dP,

et la conclusion en découle puisque P(A ∩Bi) = P(A | Bi)P(Bi). ⊳

Théorème 2.8 Si (Ω,F ,P) est un espace de probabilité et G une sous-tribude F , alors :

1. P(Ω | G) = 1 p.s. ;2. pour tout A ∈ F , on a 0 ≤ P(A | G) ≤ 1 p.s. ;3. pour toute suite (An) d’événements de F disjoints deux à deux, on a

P

( ⋃

n≥0

An | G)

=∑

n≥0

P(An | G) p.s..

“bqM” — 2013/12/17 — 9:21 — page 33 — #41

2.1 Conditionnement 33

Démonstration.- 1. Nous avons∫

BP(Ω | G)dP = P(B ∩ Ω) = P(B) pourtout B ∈ G, d’où P(Ω | G) = 1 p.s..2. Soit C = ω ∈ Ω : P(A | G)(ω) > 1. Nous avons

P(C) ≤∫

C

P(A | G)dP = P(A ∩ C),

d’où une contradiction si P(C) > 0.3. Nous avons pour tout B ∈ G

B

n≥0

P(An | G)dP =∑

n≥0

B

P(An | G)dP

=∑

n≥0

P(An ∩B) = P

[( ⋃

n≥0

An

)∩B

].

Donc∑

n≥0 P(An | G), qui est évidemment G-mesurable, est bien la proba-bilité conditionnelle de ∪n≥0An sachant G.

Comme nous venons de le souligner, la propriété 3. pour une suite (An)donnée, est seulement vérifiée p.s., soit sur Ω\N(An) avec P[N(An)] = 0,et non pour tout ω. La fonction A −→ P(A | G)(ω) n’est pas en généralune probabilité sur F pour tout ω ; il faut retrancher N = ∪N(An), oùla réunion est prise sur toutes les suites d’événements de F . Cette réunionn’étant pas dénombrable, il est possible que l’événement N ait une proba-bilité strictement positive.

Proposition 2.9 Si G est une sous-tribu de F , si C ∈ F et si A ∈ G, alorsP(A ∩ C | G) = P(C | G)11A p.s..

En particulier, pour C = Ω et A ∈ G, on obtient P(A | G) = 11A p.s..

Démonstration.- Pour tout B ∈ G, d’une part,∫

B

P(A ∩ C | G)dP = P(A ∩ C ∩B),

et d’autre part, ∫

B

11AP(C | G)dP = P(A ∩ C ∩B),

d’où le résultat.

Il reste à montrer l’existence de la probabilité conditionnelle. Pour toutevariable aléatoire X positive définie sur (Ω,F ,P), la quantité

µ(B) =∫

B

XdP, B ∈ G, (2.2)

est bien définie. La mesure µ ainsi définie sur (Ω,G,P) est à valeurs dansR+. Elle est absolument continue par rapport à P et sa dérivée de Radon-Nikodym est une variable aléatoire G-mesurable. Enfin, pour X = 11A, où

“bqM” — 2013/12/17 — 9:21 — page 34 — #42

34 Chapitre 2. Conditionnement et martingales

A ∈ F , nous déduisons du théorème de Radon-Nikodym et de (2.2) que∫

B

P(A | G)dP = µ(B) =∫

B

11AdP = P(A ∩B), B ∈ G,

ce qui prouve l’existence d’une variable aléatoire vérifiant les propriétés dela définition 2.4.

Une probabilité conditionnelle peut aussi être vue comme un cas parti-culier de probabilité (ou noyau) de transition (ou noyau markovien) entredeux espaces mesurables.

Définition 2.10 Soient (Ω,F) et (E, E) deux espaces mesurables. Une ap-plication π : Ω × E −→ [0, 1] telle que π(ω, .) est une probabilité sur (E, E)pour presque tout ω ∈ Ω et π(., A) est une fonction F -mesurable pour toutA ∈ E , est appelée probabilité de transition de Ω à E .

Exemple 2.11 Soient f : (Ω × E,F ⊗ E) −→ (R,B(R)) une fonction me-surable positive et µ une mesure positive sur (E, E) telles que

E

f(ω, ω′)dµ(ω′) = 1, ω ∈ Ω.

La formule π(ω,A) =∫

Af(ω, ω′)dµ(ω′) définit une probabilité de transition

de Ω à E . De plus, π(ω, .) est absolument continue par rapport à µ de densitéf(ω, ·). ⊳

Supposons maintenant que (E, E) = (Ω,F).

Définition 2.12 Soit G une sous-tribu de F . Une probabilité de transitionde Ω à Ω est appelée probabilité conditionnelle par rapport à G si pour toutA ∈ F , la variable π(·, A) est une version de la probabilité conditionnelleP(A | G), c’est-à-dire si π(·, A) = P(A | G)(·) P-p.s..

2.1.3 Lois conditionnelles

Soient (Ω,F) un espace mesurable, et P l’ensemble des probabilités sur(Rd,B(Rd)). Soit Q : Ω −→ P une application. Donc Q(ω) est une probabi-lité sur (Rd,B(Rd)) pour tout ω ∈ Ω. Nous noterons Q(ω,B) la mesure detout B ∈ B(Rd) par Q(ω).

Afin de pouvoir parler de Q comme d’une variable aléatoire, P doit êtremuni d’une tribu. Nous considérerons donc l’espace mesurable (P,H), oùH est la tribu engendrée par les fonctions définies sur P par P −→ P (B)pour tout B ∈ B(Rd).

Définition 2.13 Soit (Ω,F) un espace mesurable. Toute application me-surable de (Ω,F) dans (P,H) est appelée loi (ou probabilité) aléatoire sur(Rd,B(Rd)).

“bqM” — 2013/12/17 — 9:21 — page 35 — #43

2.1 Conditionnement 35

Cette notion de probabilité aléatoire permet de définir la loi conditionnelled’une variable aléatoire sachant une sous-tribu.

Définition 2.14 Soient X : (Ω,F ,P) −→ (Rd,B(Rd)) une variable aléa-toire et G une sous-tribu de F . Une application Q : Ω × B(Rd) −→ P estappelée loi conditionnelle de X sachant G si pour tout B ∈ B(Rd) fixé, lavariable Q(·, B) est égale à la probabilité conditionnelle de (X ∈ B) parrapport à G.

De même, on définit la densité et la fonction de répartition dites condition-nelles de la loi conditionnelle.

Définition 2.15 Soient X = (X1, . . . , Xd) : (Ω,F ,P) −→ (Rd,B(Rd)) unevariable aléatoire et G une sous-tribu de F .

Une fonction F : Ω × Rd −→ [0, 1] est appelée fonction de répartitionconditionnelle de X par rapport à G si F (ω, ·) est une fonction de répartitionpour tout ω ∈ Ω, et si, pour tout x = (x1, . . . , xd) ∈ Rd,

F (·, x) = P(X1 ≤ x1, . . . , Xd ≤ xd | G) p.s..

Une fonction q borélienne positive définie sur (Ω × Rd,F ⊗ B(Rd)) estappelée densité conditionnelle de X sachant G si la fonction Q définie surΩ × B(Rd) par

Q(ω,B) =∫

B

q(ω, x)dx

est une loi conditionnelle de X sachant G.

Pour toute variable aléatoire réelle X , on peut montrer qu’il existe uneloi et une fonction de répartition conditionnelles à toute sous-tribu G. Il n’ya pas unicité mais si Q1 et Q2 sont deux lois conditionnelles de X sachantG, alors Q1(·, B) = Q2(·, B) p.s. pour tout B ∈ G.

2.1.4 Espérance conditionnelle

Si une variable aléatoire positive possède une loi conditionnelle, l’espéranceconditionnelle de cette variable se calcule directement, comme l’espérancemathématique ordinaire, par la formule habituelle appliquée à sa loi condi-tionnelle. Si la variable positive ne possède pas de loi conditionnelle, l’espé-rance conditionnelle existe encore. Enfin, l’espérance conditionnelle d’unevariable aléatoire quelconque est définie sous certaines conditions.

Définition 2.16 Soient X une variable aléatoire définie sur (Ω,F ,P) et Gune sous-tribu de F .

Si X est positive, l’espérance conditionnelle de X sachant G est la va-riable aléatoire G-mesurable, notée E (X | G), à valeurs dans R+ et telleque ∫

C

XdP =∫

C

E (X | G)dP, C ∈ G. (2.3)

“bqM” — 2013/12/17 — 9:21 — page 64 — #72

64 Chapitre 2. Conditionnement et martingales

Démonstration.- D’une part, si (Mn) est bornée dans L2, elle est bornéeégalement dans L1. Et par le théorème de convergence de Doob, M∞ =limn→+∞ Mn existe p.s..D’autre part, nous déduisons de l’égalité suivante

E [(Mn+m −Mn)2] =n+m∑

k=n+1

E [(Mk −Mk−1)2]

et par le lemme de Fatou lorsque m tend vers l’infini que

E [(M∞ −Mn)2] ≤∑

k≥n+1

E [(Mk −Mk−1)2].

De plus, Mn = E (Mm | Fn) pour tous m ≥ n et E (· | Fn) est un opérateurcontinu sur L2, donc par passage à la limite Mn = E (M∞ | Fn).

Le théorème suivant constitue une loi des grands nombres et un théorèmede la limite centrale pour les martingales.

Théorème 2.82 Si (Mn) est une martingale L2, et si (an) est une suitenumérique croissante vers l’infini, telles que 〈M〉n/an tend en probabilitévers une limite σ2 strictement positive et

1an

n∑

k=1

E [(Mk −Mk−1)211|Mk−Mk−1|≥ε√

an]p.s.−→ 0

pour tout ε > 0, alors

Mn

an

p.s.−→ 0 etMn√an

L−→ N (0, σ2).

2.4 Exercices et compléments

Exercice 2.1 Somme aléatoire de variables aléatoires.- SoitN , une variablealéatoire à valeurs dans N∗ indépendante d’une suite aléatoire (Xn) inté-grable. On note SN =

∑Ni=1 Xi, où Sn = X1 + · · · +Xn.

1. Calculer l’espérance conditionnelle de SN sachant N . En déduire l’es-pérance de SN .

2. Déterminer la loi conditionnelle de N sachant (SN = s).

Solution.- 1. Nous avons E (SN | N = n) = E (Sn) = nEX1, et doncE (SN | N) = NEX1. On en déduit que

ESN = E [E (SN | N)] = E [NEX1] = (EN)(EX1).

2. D’après la définition 2.28 et le théorème 2.6, P(N = n | SN = s) =ϕ(s) si

E [11(SN ∈B)11(N=n)] = E [11(SN ∈B)ϕ(SN )], B ∈ B(R).

“bqM” — 2013/12/17 — 9:21 — page 65 — #73

2.4 Exercices et compléments 65

Or, d’une part,

E [11(SN ∈B)11(N=n)] = P(N = n, Sn ∈ B) = P(N = n)∫

B

fSn(s)ds,

et d’autre part,

E [11(SN ∈B)ϕ(SN )] =∫

B

ϕ(s)fSN(s)ds ;

par conséquent, P(N = n | SN = s) = P(N = n)fSn(s)/fSN

(s).

Exercice 2.2 Loi de Poisson composée en assurance.- Soit ST la sommedes indemnités payées par une compagnie d’assurance dans un intervalle detemps I = [0, T ]. On suppose que les accidents surviennent indépendammentles uns des autres et ne peuvent être simultanés. On suppose aussi que lenombre d’accidents survenant dans I est fini. On découpe I en n intervallesIn

j de même longueur.Soient Nn

j la variable aléatoire égale à 0 si aucun accident n’a lieu dansIn

j et à 1 sinon, Xnj la somme des indemnités payées par la compagnie

d’assurance dans Inj et pn

j la probabilité d’accident dans Inj . On notera P

la loi conditionnelle de Xnj sachant (Nn

j = 1) pour n grand.1. Exprimer ST en fonction des autres variables.2. On suppose que

∑nj=1 p

nj tend vers λ ∈ R∗

+ et que∑n

j=1(pnj )2 tend

vers 0 lorsque n tend vers l’infini. Montrer que ST suit une loi de Poissoncomposée.

3. Application : pnj = 1/n, avec pour P la loi B(p) avec p ∈]0, 1[.

Solution.- 1. Soit Sn =∑n

j=1 Xnj . Pour n suffisamment grand pour que

la probabilité que plusieurs accidents aient lieu dans un même intervalle Inj

soit négligeable, on a ST = Sn. Nous nous placerons dans ce cas pour lasuite.

2. Utilisons la transformée de Laplace de Sn. Comme les variables Xi

sont indépendantes, on sait que ψSn(t) =

∏nj=1 ψXn

j(t). Or

ψXnj

(t) = E (e−tXnj ) = 1 − pn

j + E (e−tXnj | Nn

j = 1)pnj = 1 − pn

j [1 − ψP (t)].

On sait que pour x > 0, on a − log(1 − x) = x+ x2[1 + ε(x)], avec ε(x) < 1pour 0 < x < x0. Or pn

j tend vers 0 par hypothèse lorsque n tend versl’infini, donc max1≤j≤n p

nj < x0/2 pour n assez grand. Ainsi,

− logψSn(t) = [1−ψP (t)]

n∑

j=1

pnj +[1−ψP (t)]2

n∑

j=1

(pnj )2[1+ε([1−ψP (t)]pn

j )].

Par définition de la transformée de Laplace, on a |1 − ψP (t)| ≤ 2. Parconséquent,

[1 − ψP (t)]2n∑

j=1

(pnj )2[1 + ε([1 − ψP (t)]pn

j )] −→ 0, n → +∞,

“bqM” — 2013/12/17 — 9:21 — page 66 — #74

66 Chapitre 2. Conditionnement et martingales

et ψSn(t) tend vers exp(λ[ψP (t) − 1]) qui est la transformée de Laplace de

la loi de Poisson composée CP(λ, P ) d’après la proposition 1.26.3. D’après l’exemple 1.29, on obtient ST ∼ P(p).

Exercice 2.3 Espérance conditionnelle et sommes.- Soient X et Y deuxvariables indépendantes et de même loi P .

1. Calculer l’espérance conditionnelle de X sachant X + Y .2. Si P est la loi normale centrée réduite, calculer l’espérance condition-

nelle de |X | sachant X2 + Y 2, puis celle de X sachant X2 + Y 2.

Solution.- 1. On a

X + Y = E (X + Y | X + Y ) = E (X | X + Y ) + E (Y | X + Y ),

donc E (X | X + Y ) = (X + Y )/2.2. On sait par la proposition 2.27 que E (|X | | X2 + Y 2) = ϕ(X2 + Y 2)

si, pour toute fonction h : R −→ R borélienne, on a

E [h(X2 + Y 2)ϕ(X2 + Y 2)] = E [h(X2 + Y 2)|X |].

D’une part,

E [h(X2 + Y 2)ϕ(X2 + Y 2)] =

=∫∫

R2h(x2 + y2)ϕ(x2 + y2)

e−(x2+y2)/2

2πdxdy

=∫

R+

∫ 2π

0

h(r2)ϕ(r2)e−r2/2

2πrdrdθ =

R+

h(r2)ϕ(r2)e−r2/2rdr,

car∫ 2π

0 dθ = 2π. D’autre part,

E [h(X2 + Y 2)|X |] =∫∫

R2h(x2 + y2)|x|e

−(x2+y2)/2

2πdxdy

=∫

R+

∫ 2π

0

h(r2)r| cos θ|e−r2/2

2πrdrdθ

(1)=

R+

h(r2)r2 2e−r2/2

πdr.

(1) puisque∫ 2π

0 | cos θ|dθ = 4. D’où ϕ(r2) = 2r/π. On en déduit que

E (|X | | X2 + Y 2) =2π

√X2 + Y 2.

Par contre, E (X | X2 + Y 2) = 0 car∫ 2π

0cos θdθ = 0.

Exercice 2.4 Fonction caractéristique et conditionnement.- On supposeque X et Y sont deux variables aléatoires telles que Y ∼ N (m,α2) etE (eitX | Y ) = e−σ2t2/2eitY .

“bqM” — 2013/12/17 — 9:21 — page 67 — #75

2.4 Exercices et compléments 67

1. a. Déterminer la fonction caractéristique de X et en déduire sa loi.b. Même question pour (X,Y ).

2. Déterminer E (X |Y et en déduire que X−Y et Y sont indépendantes.3. a. Déterminer la loi conditionnelle de X sachant (Y = y).

b. Déterminer la loi conditionnelle de Y sachant (X = x).c. Déterminer l’espérance conditionnelle de Y sachant X .

Solution.- 1. a. On a

φX(t) = E [E (eitX | Y )] = e−σ2t2/2φY (t) = eimte−(σ2+α2)t2/2,

donc X ∼ N (m,σ2 + α2).b. De même

φ(X,Y )(t, s) = E [E (eitXeisY | Y )] = e−σ2t2/2φY (s+ t)

= eim(s+t)e−(σ2+α2)t2/2e−α2s2/2e−α2st,

donc (X,Y )′ est un vecteur gaussien d’espérance (m,m)′ et de matrice devariances-covariances

Γ =(σ2 + α2 α2

α2 α2

).

2. Par le théorème 2.44,

E (X | Y ) =Cov (X,Y )Y + EXVarY − Cov (X,Y )EY

VarY= Y.

On a EX = EY = m, donc E (X − Y ) = 0 et

Cov (X − Y, Y ) = E [(X − Y )Y ]

= E (XY ) − E (Y 2) = E [Y E (X | Y )] − E (Y 2),

donc Cov (X − Y, Y ) = 0. Et (X − Y, Y )′ est un vecteur gaussien commetransformé linéaire du vecteur gaussien (X,Y )′, donc X − Y et Y sontindépendantes.

3. a. Par le théorème 2.44, on sait que X sachant (Y = y) suit une loigaussienne

N(EX − Cov (X,Y )(y − EX)

VarX,VarX − Cov (X,Y )2

VarX

).

Or Cov (X,Y ) = α2 donc X sachant (Y = y) suit une loi N (y, σ2).b. En utilisant encore le théorème 2.44, Y sachant (X = x) suit une loi

N(mσ2 + xα2

σ2 + α2,α2σ2

σ2 + α2

).

c. On en déduit que

E (Y | X) =mσ2

σ2 + α2+

α2

σ2 + α2X,

l’espérance conditionnelle cherchée.

ISBN 978-2-311-40015-1

WWW.VUIBERT.FR

Prob

abili

tés.

Pro

cess

us s

toch

astiq

ues

et a

pplic

atio

nsCo

urs

& e

xerc

ices

cor

rigé

s

9 782311 400151

MA

STER

, ÉC

OLE

S D

’IN

GÉN

IEU

RS

& A

GR

ÉGAT

ION

MAT

HÉM

ATIQ

UES

Valérie Girardin & Nikolaos Limnios

ProbabilitésProcessus stochastiques et applications

Probabilités

MASTERÉCOLES D’INGÉNIEURSAGRÉGATIONMATHÉMATIQUES

Valérie GirardinNikolaos Limnios

• Cours complet• Exercices d’application corrigés• Problèmes de synthèse

Processus stochastiques et applications

Rédigé principalement à l’attention des étudiants en Master demathématiques et en écoles d’ingénieurs, cet ouvrage présente des notionscomplexes de la théorie des probabilités à travers une introduction auxprocessus stochastiques et à leurs applications.Composé d’un cours complet, de nombreux exercices corrigés et deproblèmes de synthèse, ce manuel servira également de base de révision auconcours de l’Agrégation de mathématiques.

Agrégée de mathématiques, Valérie Girardin est maître de conférences à l’Université de Caen Basse-Normandie, Laboratoire de Mathématiques Nicolas Oresme, et habilitée à diriger les recherches.

Nikolaos Limnios est professeur à l’Université de Technologie de Compiègne (UTC), Laboratoire deMathématiques Appliquées.

Sommaire

Notations1. Suites aléatoires indépendantes2. Conditionnement et martingales3. Chaînes de Markov4. Notions générales sur les processus

5. Processus markoviens et semi-markoviens

Problèmes à résoudreÀ la fin de chaque chapitre, on trouvera des exercices suivis de leurs corrigés

CV_Probabilite_Processus2NEW:EP 17/12/13 10:45 Page 1