44
JPV INITIATION AUX PROBABILITÉS

INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

JPV

INITIATION AUX PROBABILITÉS

Page 2: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

JPV

La Rochelle–Blois.

E-mail : [email protected]

Page 3: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

3

.2 mars 2009

Page 4: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

INITIATION AUX PROBABILITÉS

JPV

Résumé. — Encore une introduction aux probabilités

Abstract. — Yet Another Introduction to Probabilities

Page 5: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

TABLE DES MATIÈRES

Avertissement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.1. Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2. Dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2. Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212.1. Espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3. Probabilités discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313.1. Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313.2. Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

4. Densités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374.1. Variables aléatoires à densités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

5. Convergences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415.1. Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415.2. Lois des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415.3. Théorème de la limite centrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425.4. Loi faible : version plus forte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435.5. Limite centrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 445.6. Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

Page 6: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

6 TABLE DES MATIÈRES

Avertissement

Le présent cours prétend être une approche élémentaire des probabilités. Cependantquelques notions plus avancées apparaissent ici et là, le lecteur pourra ignorer, ou survo-ler, ces suppléments.

Dans un avenir plus ou moins lointain, avec une probabilité non nulle, ce cours seraconçu pour être lu par niveau.

Page 7: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

CHAPITRE 1

INTRODUCTION

Les probabilités occupent une place à part dans les mathématiques. Elles ont des nota-tions, des raisonnements et des méthodes souvents spécifiques. Le but premier des pro-babilités était de fonder les statistiques sur des bases solides. Depuis, ces disciplines sesont émancipées l’une de l’autre. Cependant, pour une initiation, nous réempruntons lesvieux chemins.

1.1. Exemples

1.1.1. Fréquences. — La place y est belle pour les jeux.Nous faisons une brève incursion dans la théorie des probabilités. Dans cette introduc-

tion le fil rouge sera un dé dont les six faces sont numérotées de 1 à 6. Nous commençonspar le lancer un grand nombre de fois.

Notons N1 le nombre de lancers où «1» apparait et N le nombre total de lancers.La fréquence d’apparition du chiffre «1» est, par définition le quotient

N1

N

Autrement dit, c’est le nombre de cas favorables divisé par le nombre de lancers. Ce nombreest égal à un nombre p1.

De même, nous définissons Nk et pk pour chaque numéro k des six faces du dé.Le nombre total de lancers est N d’une part, mais est aussi égal à

N1 +N2 +N3 +N4 +N5 +N6

soit

N1 +N2 +N3 +N4 +N5 +N6 = N

Donc, en divisant par NN1 +N2 +N3 +N4 +N5 +N6

N= 1

Autrement dit

p1 +p2 +p3 +p4 +p5 +p6 = 1

Page 8: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

8 CHAPITRE 1. INTRODUCTION

C’est-à-dire que la somme des fréquences de tous les résultats de tous les lancers est égale à1. Nous ne comptabilisons pas les cas ambigüs, par exemple lorsque le dé ne présente pasune face horizontale. . .

Les fréquences peuvent varier d’une expérience à l’autre. Le dé est estimé non pipélorsque les fréquences d’apparition de chaque face sont égales ou à peu près. Le rôle desstatistiques est de donner une définition à à peu près.

1.1.1.1. Le dé non pipé. — Quittons les statistiques pour définir un modèle abstrait (ma-thématique) du lancer d’un dé non pipé. Tous les lancers sont idéalisés en un lancer. Lachance, nous dirons la probabilité, d’apparition de chaque numéro est donc p, ce qui im-plique

p1 +p2 +p3 +p4 +p5 +p6 = 1

6p = 1

ce qui implique

p = 1

6

Nous dirons que les lancers sont équiprobables, c’est-à-dire que les fréquences d’appa-rition de chaque nombre sont égales.

Le résultat d’un lancer est un évènement élémentaire. Il y a donc six évènements élé-mentaires dans ce cas. Le résultat R qui s’énonce «le numéro est pair» est un évènementqui n’est pas élémentaire, intuitivement, sa probabilité (penser à la fréquence d’appari-tion) est égale à 1

2 car il y a autant de nombres pairs (2,4,6) que de nombres impairs (1,3,5)sur les faces du dé et en lançant un grand nombre de fois le dé, nous espérons obtenirautant de fois un nombre pair qu’un nombre impair.

Si le numéro obtenu est 2, ce numéro n’est ni 4 ni 6. Nous rencontrons une propriétéfondamentale des probabilités : si les évènements A et B sont disjoints, nous dirons aussi :«incompatibles», la probabilité de l’évènement «A ou B» est la somme des probabilités de Aet de B. Ainsi la probabilité pR de l’évènement R ci-dessus vérifie :

pR = p2 +p4 +p6

D’autres combinaisons peuvent être envisagées. Ceci montre pourquoi l’utilisation desensembles et de la combinatoire est si importante en théorie des probabilités.

1.1.1.2. Le jeu de pile ou face. — Le jeu de «pile ou face» est le modèle du jeu à deux ré-sultats. Une pièce de monnaie a deux faces (et pas deux piles), sur la première, la face estgravée une figure, un monument, un animal ou un objet ; sur la seconde face, appelée pile,est indiquée la valeur de la pièce. La pièce est jetée en l’air, lorsqu’elle est retombée l’unedes deux faces est cachée et l’autre est visible. Les joueurs parient sur l’apparition de l’unedes faces avant le jet. Les gagnants sont les joueurs qui ont deviné la face visible.

Si la pièce n’est pas truquée, le nombre de «faces» est égal au nombre de «piles» soit50% pour chaque face, les fréquences d’apparition de chaque face sont égales à 1

2 .

1.1.2. Modèles mathématiques. —

Page 9: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

1.1. EXEMPLES 9

1.1.2.1. Le jeu de pile ou face équitable. — Les résultats sont représentés par deux élé-ments P et F d’un ensembleΩ :

Ω = F P

Les quatre parties de l’ensembleΩ= P ,F symbolisent les évènements du jeux :

Parties P ,F P F ∅Évènement certain pile face impossible

La partie P ,F est l’évènement «le résultat» est pile ou face, c’est certain tandis que ∅signifie pas de résultat, ce qui est interdit (la pièce tombe sur la tranche, est perdue etc,statistiquement très rare). Enfin P et F traduisent le fait que la face visible est respecti-vement pile et face.

Nous définissons enfin une fonction P sur l’ensemble P(Ω) des parties de Ω. P estappelée fonction de probabilité (ou simplement probabilité). Cette fonction définit la fré-quence théorique des évènements P et F :

P (P ) = 1

2, et P (F ) = 1

2

Bien entendu

P (Ω) = 1 et P (∅) = 0

1.1.2.2. Le jeu de pile ou face avec une pièce non équilibrée. — Supposons que la fré-quence d’apparition de «face» soit 1

3 et celle de «pile» soit 23 . Alors deux solutions s’offrent

à nous.La première consiste à reprendre l’espaceΩ à deux éléments du paragraphe précédent

(1.1.2.1) et à modifier la probabilité P de la sorte

P (P ) = 2

3, et P (F ) = 1

3

Les évènements sont les mêmes mais les évènements élémentaires P et F ne sont pluséquiprobables.

La seconde solution est plus compliquée mais permet de travailler avec des évène-ments équiprobables. L’ensemble Ω choisi aura neuf éléments dont trois seront étiquetésF et six étiquetés P :

Ω =

F P P

F P P

F P P

Ainsi le jet de cette pièce non équilibrée est modélisé par le choix au hasard d’un jetonparmi neuf. Trois jetons étant étiquetés F et les six autres étiquetés P . Dire «au hasard»signifie que les probabilités d’apparition de chacun des neuf jetons sont égales, elles valentdonc 1

9 .

Page 10: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

10 CHAPITRE 1. INTRODUCTION

Définissons maintenant les évènements mesurables par le joueur, c’est-à-dire les évè-nements que nous pouvons détecter. Si c’est «face» qui apparaît, nous ne pouvons dis-tinguer parmi les trois jetons étiquetés F lequel a été tiré. De même si c’est «pile» qui estobtenu. Pour plus de clarté (enfin je l’espère) indexons les jetons. Les trois «face» serontF1,F2 et F3, les six «pile» seront P1, . . . ,P6. Donc l’évenement F1 n’est pas mesurable car«face» est annoncé, nous ne savons pas si c’est F1,F2 ou F3. Par conséquent, l’évenementmesurable «face» sera représenté par F1,F2,F3. Les évènements mesurables constituentce que l’on appelle une tribu, dans le cas présent cette tribu T ′ est

T ′ = ∅, F1,F2,F3, P1, . . . ,P6,Ω

Il y a donc quatre éléments dans cette tribu, qui représentent les quatre évènements quipeuvent se produire (impossible, face, pile, pile ou face), tout comme dans le cas d’unepièce équilibrée.

Le croupier, qui choisit le jeton au hasard, dispose d’une tribu différente car il peut dis-tinguer les jetons de même étiquette F ou P . Sa tribu T est l’ensemble de toutes les partiesdeΩ, cette tribu a 29 éléments, le croupier peut donc distinguer 512 évènements distincts.Il dispose d’une probabilité P qui vaut 1

9 sur chaque évènement élémentaire grâce à l’équi-probabilité, par exemple

P (F1) = 1

9Le croupier calcule la probabilité de «face» par :

P (F1,F2,F3) = P (F1)+P (F2)+P (F3)

= 31

9Le joueur ne peut calculer P (F1) comme le croupier,Le joueur dispose d’une probabilité P ′ définie sur T ′ qui ne lui permet pas de calculer

P ′(F1) mais il peut évaluer la probabilité de «face» par :

P ′(F1,F2,F3) = 3

9Ce qui revient à regarder par dessus l’épaule du croupier :

P ′(F1,F2,F3) = P (F1,F2,F3)

= P (F1)+P (F2)+P (F3)

= 31

9

= 1

3Les exemples suivants, plus compliqués, nous font découvrir d’autres propriétés des pro-

babilités.

1.1.2.3. Description du modèle mathématique du jet d’un dé à six faces non pipé. — Nousdéfinissons un espace probabilisé Ω dont les six éléments correspondent aux évènementsélémentaires : Ω = 1,2,3,4,5,6. Nous définissons également une tribu T qui est un en-semble de parties deΩ dont les éléments représentent les évènements que nous pouvonsmesurer. Dans cet exemple, nous pouvons tout mesurer a priori, nous choisirons donc T

Page 11: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

1.1. EXEMPLES 11

sera l’ensemble P(Ω) de toutes les parties de Ω. Ainsi l’évènement «le résultat est pair»est un évènement non élémentaire qui est représenté par la partie R = 2,4,6. Une consé-quence de cette définition est que les combinaisons autorisée d’évènements sont les opé-rations ensemblistes sur T qui doit vérifier les conditions suivantes ; par définition leséléments de T sont les évènements mesurables :

1. L’évènement impossible est ∅.

2. L’évènement certain estΩ.

3. Si A et B sont mesurables, alors AàB est mesurable.

4. Si An≥0 est une famille d’ensembles mesurables, alors la réunion ∪n≥0 An est mesu-rable. Dans la plupart des cas que nous rencontrerons la suite sera finie.

Nous en déduisons que ∩n≥0 An est mesurable car le complémentaire de la réunion estl’intersection des complémentaires.

Exemples d’évènements mesurables : le résultat du lancer donne un nombre supérieurou égal à 4, son complémentaire, ou évènement incompatible est le résultat du lancerdonne un nombre inférieur ou égal à 3.

Une probabilité est une application P définie sur T et à valeurs dans l’intervalle [0,1].En effet un probabilité est censée être une fréquence idéalisée. Ainsi puisque R = 2,4,6 :

P (2,4,6) = P (2)+P (4)+P (6)

Si les évènements ne sont pas incompatibles, par exemple :

P (2,4∪ 4,3) = P (2)+P (3)+P (4)

La probabilité d’un évènement élémentaire m (m est un élément deΩ, c’est-à-dire unentier compris entre 1 et 6) est P (m) = 1

6 .Nous dirons que les évènements élémentaires sont équiprobables.Notation : nous écrirons, plus légèrement : P (m) = P (m), sans accolades.

1.1.2.4. Description du modèle mathématique du jet d’un dé pipé à six faces. — Suppo-sons que statistiquement les lancers d’un dé donnent les résultats suivants pour 1000 lan-cers :

résultats 1 2 3 4 5 6nombres d’apparitions 120 200 240 100 160 180fréquences 0,12 0,2 0,24 0,1 0,16 0,18

Le modèle mathématique que nous sommes tentés de choisir est le suivant : l’ensembleprobabilisable est Ω= 1,2,3,4,5,6, les évènements mesurables sont toutes les parties deΩ, comme dans le cas précédent d’un dé non pipé.

Mais ici la probabilité d’un évènement élémentaire n’est pas constante (il n’y a pas équi-probabilité). Le tableau statistique suggère de définir les probabilités des évènements élé-mentaires égales aux fréquences d’apparitions, soit

P (1) = 0,12 P (2) = 0,2 P (3) = 0,24 P (4) = 0,1 P (5) = 0,16 P (6) = 0,18

Maintenant la probabilité d’obtenir un nombre pair est

P (2,4,6) = 0,2+0,1+0,18 = 0,48

Page 12: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

12 CHAPITRE 1. INTRODUCTION

Nous perdons ainsi la situation d’équiprobabilité qui est pratique. Pour retrouver lecas d’équiprobabilité, nous allons définir un espace probabilisé qui modélise la mêmeexpérience mais au prix d’une complication.

Imaginons que nous ayons un dé avec 1000 faces dont toutes les faces ont la mêmefréquence d’apparition. Nous étiquetons les faces de la façon suivante :

– 120 faces sont étiquetées de 11 à 1120 ;– 200 faces sont étiquetées de 21 à 2200 ;– 240 faces sont étiquetées de 31 à 3240 ;– 100 faces sont étiquetées de 41 à 4100 ;– 160 faces sont étiquetées de 51 à 5160 ;– 180 faces sont étiquetées de 61 à 6180.

Un dé à mille faces se présente ainsi :

11, . . . ,1120︸ ︷︷ ︸120fois<<1>>

, . . . , 61, . . . ,6180︸ ︷︷ ︸180fois<<6>>

Nous pouvons donc définir un espace Ω à 1000 éléments (correspondant au dé à millefaces) :

Ω= 11, . . . ,1120, . . . ,61, . . . ,6180

Mais tous les évènements élémentaires ne sont plus mesurables car pour modéliser lejet d’un dé à six faces, nous de devons pas distinguer les faces qui ont le même numéro ;autrement dit, nous ignorons les indices. Pour nous : 11 = 1120 et 25 = 255, par exemple.Ainsi, les évènements élémentaires sont les six évènements représentés par les parties

un = 11, . . . ,1120, deux = 21, . . . ,2200, tr oi s = 31, . . . ,3240

quatr e = 41, . . . ,4100, ci nq = 51, . . . ,5160, si x = 61, . . . ,6180

de sorte que les évènements mesurables sont au nombre de 26 = 64 comme précédem-ment.

La probabilité d’un singleton de Ω est 11000 , mais c’est fictif car les singletons ne sont

pas mesurables. Ce qui est mesurable, par exemple, c’est l’apparition du numéro 2, cetévènement est représenté par 21, . . . ,2200 et sa probabilité est

P (21, . . . ,2200) = 2001

1000= 0,2

comme voulu.Nous sommes tantôt docteur Jekill qui distingue toutes les 1000 faces et tantôt Mister

Hyde qui ne voit plus les indices. Pour le docteur Jekill, il y a 21000 évènements mesurablestandis que pour Mister Hyde il n’y a que 26 évènements mesurables.

Les deux points de vue peuvent être adoptés.

1.1.3. Probabilités conditionnelles. — Revenons au dé à six faces non pipé. L’appella-tion «probabilité conditionnelle» signifie que l’on s’intéresse à des probabilités sous unecondition donnée, autrement dit nous désirons calculer des probabilités en ayant une in-formation supplémentaire.

Page 13: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

1.2. DÉNOMBREMENT 13

Considérons, par exemple, l’évènement T qui est «le numéro obtenu est le 3». T = 3est un évènement élémentaire, c’est un élément de la tribu T =P(Ω). Sans aucune infor-mation, nous avons vu que

P (T ) = 1

6Si nous avons l’information supplémentaire que le numéro obtenu est impair alors il n’ya plus que trois possibilités, équiprobables comme lorsque nous n’avions pas d’informa-tion, donc la probabilité d’avoir obtenu 3 est maintenant d’un sur 3 :

1

3Nous allons formaliser cette information supplémentaire. L’espace probabilisé qui dé-

crit le jet avec information est Ω′ = 1,3,5, sa tribu T ′ (ensembles mesurables) est l’en-semble P(Ω′) de toutes les parties de Ω′. La probabilité P ′ est définie sur les évènementsélémentaires par

P ′(m) = 1

3d’après l’équiprobabilité. Nous avons dès lors tous les constituants d’un espace probabi-lisé : l’ensemble, la tribu, la probabilité.

Étudions les relations de cet espace (Ω′,T ′,P ′) avec l’espace probabilisé (Ω,T ,P ).L’ensemble Ω′ est un évènement de T et sa probabilité est P (Ω′) = 1

2 ; la probabilitéd’obtenir un nombre impair est de 1 sur 2 car il y autant de nombres pairs que de nombresimpairs et les résultats possibles sont équiprobables.

À tout évènement E de T nous faisons correspondre l’évènement E ′ = E ∩Ω′ de T ′ etalors :

P ′(E ′) = P (E ∩Ω′)P (Ω′)

Nous notons P ′(E ′) = P (E/Ω′) qui se lit «probabilité de E sachantΩ′» : Soit

P (E/Ω′) = P (E ∩Ω′)P (Ω′)

La signification intuitive dans la situation d’évènements élémentaires équiprobables estbien le nombre de cas favorables, soit le nombre d’éléments de E∩Ω′, divisé par le nombrede cas possibles, soit le nombre d’éléments deΩ′.

Autre exemple, avec les mêmes notations : soit F = 2,3 alors P (F ) = 26 soit P (F ) = 1

3 .L’information Ω′ = 1,3,5 étant que le nombre obtenu est impair, nous avons P (F /Ω′) estégal au nombre d’éléments communs à F et à Ω′, soit le nombre d’élements de F ∩Ω′,divisé par le nombre d’éléments deΩ′, nous obtenons 1

3 .

1.2. Dénombrement

Les mots clefs du dénombrement sont ceux d’ensemble, d’application (quelconque,injective, bijective), de cardinal.

La notion d’ensemble est intuitive ; un ensemble est «défini» comme une collectiond’objets. Ce qui ne fait que déplacer la question de la définition.

Notons A et B deux ensembles.

Page 14: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

14 CHAPITRE 1. INTRODUCTION

1. Soit a un élément appartenant à A, nous notons : a ∈ A.

2. Si tous les éléments de A sont aussi des éléments de B , nous disons que A est inclusdans B , cela s’écrit : A ⊂ B .

3. Un couple d’éléments a de A et b de B est noté (a,b). C’est le premier exemple deliste ordonnée (1).

4. L’ensemble des couples d’éléments de A et B est noté A×B .

5. Une application de A dans B notée f : A → B est définie par une partie G de A ×Btelle que, lorsque a est un élément de A, il n’existe qu’un seul élément b, appeléimage de a, dans B tel que :

(a,b) ∈G

Autrement dit : a n’a qu’une image : f (a).

b = f (a) ⇐⇒ (a,b) ∈G

G est le graphe de f .

Notons Card(A), le nombre d’éléments d’un ensemble A.

1. Si A∩B =∅ alors

Card(A∪B) = Card(A)+Card(B)

Sinon

Card(A∪B) = Card(A)+Card(B)−Card(A∪B)

En effet pour dénombrer les éléments de la réunion, nous comptons les éléments dechaque ensemble puis nous déduisons le nombre d’éléments de l’intersection quiont été comptés deux fois.

2. Card(A×B) = Card(A)Card(B) Cette formule se démontre grâce à la précédente car

Card(A×B) =∪a∈Aa×Card(B)

Ainsi, nous découpons le produit cartésien en tranches de la forme a×Card(B) etil doit être clair que si a 6= b :

a×Card(B)∩ b×Card(B) =∅

et que pour tout a

Card(a×Card(B)) = Card(B)

Donc : Card(A×B) est égal à Card(A) multiplié par Card(B).

Représentation d’un produit cartésien A = a1, . . . , a6 par B = b1, . . . ,b4 :

(1)la notion de couple est définie à partir de celle d’ensemble : (a,b) = a, a,b

Page 15: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

1.2. DÉNOMBREMENT 15

(a[1],b[1])

(a[1],b[2])

(a[1],b[3])

(a[1],b[4])

(a[2],b[1])

(a[2],b[2])

(a[2],b[3])

(a[2],b[4])

(a[3],b[1])

(a[3],b[2])

(a[3],b[3])

(a[3],b[4])

(a[4],b[1])

(a[4],b[2])

(a[4],b[3])

(a[4],b[4])

(a[5],b[1])

(a[5],b[2])

(a[5],b[3])

(a[5],b[4])

(a[6],b[1])

(a[6],b[2])

(a[6],b[3])

(a[6],b[4])

a[1] a[2] a[3] a[4] a[5] a[6]

b[1]

b[2]

b[3]

b[4]

A→B ↑

L’ensemble A est en dessous, représenté horizontalement et B à gauche, représenté verti-calement. Pour visualiser le produit, nous avons tracé des traits horizontaux et verticaux,les éléments du produit sont à l’intersection.

Les dessins ci-dessous illustrent les propriétés des applications que nous allons utiliser,lorsque les ensembles A et B ont un nombre fini d’éléments. La principale est la bijectivité.Dire que f est bijective c’est dire que A et B ont le même nombre d’éléments. La secondepropriété est l’injectivité qui indique que A a moins d’éléments que B (ou autant).

Ces propriétés s’énoncent simplement grâce à l’équation suivante pour laquelle y estdonné, dans B et nous cherchons l’inconnue x dans A :

f (x) = y

En effet

Nombre de solutions x Propriété de fAu plus une injectivité

Au moins une surjectivitéExactement une bijectivité

Le reste Pas de propriété remarquable

Page 16: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

16 CHAPITRE 1. INTRODUCTION

Application injective : l’équation f (x) = y a exactement une solution si y est a,b,c etaucune solution si y = d . Il y a donc au plus une solution.

1

2

3

a

b

c

d

A

B

f

Application surjective : l’équation f (x) = y a exactement une solution si y est a,b et deuxsolutions si y = c. B n’a pas d’autre élément, donc l’équation a toujours au moins unesolution.

1

2

3

4

a

b

c

A

B

f

Application bijective : l’équation a toujours exactement une solution.

1

2

3

a

b

c

A

B

f

Page 17: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

1.2. DÉNOMBREMENT 17

Application ni injective, ni surjective : f n’est pas injective car f (x) = c a deux solutions cet d dans A, elle n’est pas surjective car f (x) = d n’a pas de solution.

1

2

3

4

a

b

c

d

A

B

f

Notons idA l’application identité de A dans A (si a est dans A : idA(a) = a), respective-ment idB et B .

Un caractérisation importante des applications injectives est donnée par l’équivalence :

f est bijective de A sur B ⇐⇒ il existe une application g de B dans A telleque g f = idA et f g = idB

1.2.1. Nombre d’applications. — Soient A = a1, a2, a3, a4, a5, a6 et B = b1,b2,b3,b4deux ensembles (A a six éléments et B en a quatre). Une application de A dans B estconnue dès que l’on connait les images des éléments de A. Par exemple, soit f telle que :

f (a1) = b2, f (a2) = b4, f (a3) = b1, f (a4) = b3, f (a5) = b2, f (a6) = b4

f est bien définie par les couples de la forme (a, f (a)), c’est-à-dire par :

(a1,b2), (a2,b4), (a3,b1), (a4,b3), (a5,b2), (a6,b4)

qui représente une partie G de A×B et que l’on appelle le graphe de f . Si les éléments deA sont ordonnés, par exemple par l’ordre croissant de leur indice, alors f est définie par le6-uplet (suite de six éléments) des images de ces six éléments :

(b2,b4,b1,b3,b2,b4)

Représentés sur le schéma ci-dessous (les points sont reliés par des segments pour plus delisibilité) :

a[1] a[2] a[3] a[4] a[5] a[6]

b[1]

b[2]

b[3]

b[4]

(a1, f(a1))

(a2, f(a2))

(a3, f(a3))

(a4, f(a4))

(a5, f(a5))

(a6, f(a6))

Page 18: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

18 CHAPITRE 1. INTRODUCTION

Inversement, la donnée de six éléments de B , par exemple (b1,b4,b4,b3,b2,b3), définitune fonction g de A dans B .

Nous en déduisons qu’il y a autant d’éléments dans B 6 que dans l’ensemble B A des fonc-tions de A dans B :

Card(F (A,B)) = Card(B)Card(A)

Pour l’exemple ci-dessus : Card(F (A,B)) = 46, donc Card(F (A,B)) possède 4096 éléments.

Remarque 1.2.1. — Nous aurions pu raisonner naïvement de la manière suivante : pourchoisir la première image nous avons quatre possibilités. Pour choisir la seconde imagenous avons toujours quatre possibilités, donc pour choisir les deux premières images nousavons 4 fois 4 possibilités etc, pour choisir les six images nous avons 46 possibilités. Cetype de raisonnement doit être utilisé avec prudence et il faudra toujours en vérifier lavalidité par un argument plus rigoureux. Les erreurs : oublis de l’ordre, dénombrementsredondants, sont quelques fois difficiles à déceler.

Remarque 1.2.2. — Remarque : ce raisonnement est un modèle de ce que nous feronspour établir des bijections. Le principe est le suivant : Si

– À tout élément a d’un ensemble E on associe un élément b d’un ensemble F ;– À tout élément b′ de F on associe un élément a′ de E ;– b′ = b si et seulement si a′ = a ;

Alors E est en bijection avec F avec a 7→ b.

Exemple 1.2.1. — Soient n livres d’auteurs différents, de sorte qu’il n’y a pas deux livresidentiques. Nous disposons de m caisses pour déposer les n livres.

Question : Combien y a-t-il de façons de ranger les livres dans les boîtes ?Qu’est-ce qu’un rangement ? La phrase «le livre numéro k est rangé dans la caisse nu-

méro `», définit parfaitement la place de chaque livre. Ainsi, à tout livre nous associons lacaisse qui le contient, donc tout rangement R définit ainsi une application f de l’ensembledes livres dans l’ensemble des caisses.

Inversement, toute application f de l’ensemble des livres dans l’ensemble des caissesdéfinit un rangement R de la manière suivante : tout livre numéro k est rangé dans la caissenuméro f (k).

Notons F (L ,C ) l’ensemble des applications de l’ensemble L des livres dans C , en-semble des caisses et R(L ,C ) l’ensemble des rangements.

Finalement, à toute application f est associée un rangement R, et à ce rangement R estassocié l’application f , donc la correspondance :

f 7→ R

est une bijection de F (L ,C ) sur R(L ,C ).Les cardinaux de ces ensembles sont donc égaux, comme card(F (L ,C )) = mn le nombre

de rangements est donc :

mn

1.2.2. Nombre de listes. — Soit A un ensemble contenant n éléments. Une liste ordonnéede m éléments de A est une suite d’éléments de A, nous la noterons (a1, . . . , am).

Page 19: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

1.2. DÉNOMBREMENT 19

1.2.2.1. Listes ordonnées sans répétition. — Cette liste est sans répétition si tout élémentse retrouve une fois au plus dans la liste. Ceci équivaut à dire que l’application

1,m −→ A

est injective. Il y a donc autant de listes à m éléments pris parmi n et sans répétition qu’il ya d’injections de 1,m dans A.À la liste (a1, . . . , am) est associée l’injection j 7→ a j et inversement à une injection f de1,m dans A est associée la liste ( f (1), . . . , f (m)).

Supposons que A contienne n éléments. Le raisonnement naïf est le suivant : «il y a nchoix possibles pour le premier élément de la liste. Une fois cet élément ôté, il reste quen − 1 choix pour le second. Pour les deux premiers choix, il y a donc n fois n − 1 possi-bilités etc. Finalement, le nombre de listes de m éléments deux à deux distincts (ou sansremplacement) pris parmi n est n(n −1) · · · (n − (m −1)).»

1.2.2.2. Listes ordonnées avec répétitions. — Une liste ordonnée ` d’éléments d’un en-semble A avec répétition est une suite de m éléments de A, un élément pouvant être choisiplusieurs fois :

`= (a1, . . . , am)

avec, pour tout j , a j ∈ A.Par exemple : m = 5 et A = 1,7 : `= (3,3,1,6,3) est une liste ordonnée avec répétitions.Nous constatons que la donnée d’une liste ordonnée avec répétition équivaut à la don-

née d’une application de 1,m dans A.

Exemple 1.2.2 («Statistique» de Maxwell-Boltzmann). — m particules distinctes sont ré-parties dans n régions. Chaque région peut contenir un nombre quelconque de particules.Chaque répartition est décrite par une application de l’ensemble des particules dans l’en-semble des régions. Aucune sorte de particule connue ne suit cette loi.

1.2.2.3. Listes non ordonnées sans répétition. — Une liste non ordonnée de m éléments,d’un ensemble A, sans répétition est assimilée à une partie de l’ensemble A.

Supposons que A ait n éléments. À toute liste ordonnée sans répétition de m élémentsde A, nous associons toutes les listes obtenues par permutations, il y en a m!. Inversement,il y a m! façons d’ordonner m éléments deux à deux distincts. En conclusion, il y a m!fois moins de listes non ordonnées que de listes ordonnées. Le nombre de listes (sansrépétition) non ordonnées est noté par

(nm

)ou Ùm

n :(n

m

)= n!

(n −m)!m!

Exemple 1.2.3 («Statistique» de Fermi-Dirac). — m particules indistinctes sont répartiesdans n régions. Chaque région ne peut contenir qu’une particule, au plus. Chaque répar-tition est décrite par l’ensemble des m régions qui contiennent une particule.

Le nombre de répartitions est donc :(n

m

).

Exemple 1.2.4 («Statistique» de Bose-Einstein). — m particules indistinctes sont répar-ties dans n régions. Chaque région peut contenir plusieurs particules. Nous pouvons dé-nombrer le nombre de particules par région.

Page 20: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

20 CHAPITRE 1. INTRODUCTION

Prenons un cas particulier : m = 7, n = 9, soient m +n −1 = 15 trèfles.

♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣Choisissons m = 7 trèfles parmi m +n −1 que nous transformons en cœurs, qui symbo-lisent les particules. Il reste 15−7 = 8 trèfles que nous transformons en barres verticales.Ces barres délimitent 8+1 = 9 régions :

♥♥ ∅ ♥♥♥ ∅ ∅ ∅ ♥ ∅ ∅Donc la première région contient deux particules, la seconde région est vide etc.

Le nombre de répartitions est donc :(m+n−1

m

).

1.2.3. Autres exemples. — Nous avons vu des exemples ou le dénombrement est fini. Ilexiste bien évidemment des modèles infinis, dénombrables ou non.

1.2.3.1. Jeu de pile ou face infini. — Si l’on répète n fois le jet d’une pièce, l’expérience estdécrite parΩ= P ,F n , si le jeu se poursuit indéfiniment nous devrons utiliserΩ′ = P ,F N

(N désignant l’ensemble de tous les entiers positifs ou nuls).

1.2.3.2. Tir sur cible. — Considérons la cible :

50100 50100

Le carré a une aire égale à 16, le disque rouge a une aire de π nous en déduisons que l’airede la partie bleue est 3π et l’aire de la partie blanche est 16−4π. Nous supposons que lestireurs atteignent sûrement le carré mais qu’ensuite la flèche atteint les parties blanches,bleues et rouges avec des fréquences proportionnelles aux aires.

La probabilité d’obtenir 100 (c’est-à-dire de toucher le rouge) est donc de π16 , soit envi-

ron 2 sur 10.

Page 21: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

CHAPITRE 2

GÉNÉRALITÉS

2.1. Espaces probabilisés

Ce qui précède motive les définitions suivantes (qui peuvent paraître un peu abstraites,se référer aux chapitres suivants pour d’autres exemples).

2.1.1. Généralités. —

Définition 2.1.1. — Ω est un ensemble et A est une partie de P(Ω). A est une tribu siet seulement si

1. Ω ∈A

2. Si A ∈A alorsΩà A ∈A

3. (A j ) j∈N est une suite de parties deΩ qui sont dans la tribu A . Alors

∩ j∈NA j ∈A

Nous dirons que (Ω,A ) est un espace probabilisable.

Définition 2.1.2. — Une probabilité sur (Ω,A ) est une fonction P définie sur A et à va-leurs dans [0,1] telle que

1. P (Ω) = 1

2. Pour toute suite (A j ) j∈N d’éléments deux à deux disjoints de A :

P(∩ j∈NA j

)= ∑j∈N

P (A j )

Nous dirons que (Ω,A ,P ) est un espace probabilisé.

Remarque 2.1.1. — Une conséquence de la définition est que P est une fonction crois-sante : A ⊂ B =⇒ P (A) ≤ P (B).

Notons également la probabilité du complémentaire : P (B \ A) = P (B)−P (A).

Remarque 2.1.2. — Le vocabulaire de la théorie des ensemble a une traduction imagéeen théorie des probabilités.

– Ω est l’évènement certain.

Page 22: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

22 CHAPITRE 2. GÉNÉRALITÉS

– ∅ est l’évènenement impossible.– Ωà A est l’évènement contraire de A– Si A ∩B = ∅, les évènements A et B ne peuvent se produire simultanément. Ils sont

incompatibles.– Les éléments ω de Ω seront confondus avec les évènements ω appelés évènements

élémentaires.– Une suite d’évènements est exhaustive si ces évènements appartiennent à la tribu,

sont incompatibles deux à deux et si leur réunion est égale àΩ.

Définition 2.1.3. — Une variable aléatoire X (v.a. en abrégé) est une application de Ωdans Rd (d entier positif) telle que les images réciproques des pavés de Rd appartiennentà la tribu A (nous dirons que X est une fonction mesurable).

Si d = 1, X est une v.a.r. (variable aléatoire réelle), dans ce cas un pavé est un intervalleet la condition de mesurabilité est : pour tout intervalle [a,b[ : X −1([a,b[) ∈A .

Si d > 1, d = 2 par exemple, X = (X1, X2) est un vecteur aléatoire si et seulement si pourtous intervalles [a,b[ et [a′,b′[ : X −1([a,b[×[a′,b′[) ∈ A . Cette condition équivaut au faitque X1 et X2 soient des v.a.r. car : X −1([a,b[×[a′,b′[) = X −1

1 ([a,b[)∩X −12 ([a′,b′[).

Dans le cas de probabilités sur des ensembles finis, les fonctions sur Ω sont, presquetoujours, automatiquement mesurables.

2.1.2. Indépendance, probabilités conditionnelles. —

Proposition 2.1.1. — Soient (Ω,A ,P ) un espace probabilisé et A un évènement tel queP (A) > 0. Alors

1. B = B ∈P(Ω)/∃C ∈A , B =C ∩ A est une tribu de A et l’application

B 7→ P (B ∩ A)

P (A)

est une probabilité sur (A,A ).

Définition 2.1.4. — L’application P (·/A) : B 7→ P (B∩A)P (A) est appelée probabilité condition-

nelle. Nous dirons que P (B/A) est la probabilité de B sachant A.

Ainsi (A,A ,P (·/A)) est un espace probabilisé.

Proposition 2.1.2. — Soient des évènements A1, . . . , An dans A tels que P (A1∩. . .∩An−1) >0, alors

P (A1 ∩ . . .∩ An) = P (A1)P (A2/A1) . . .P (An/A1 ∩ . . .∩ An−1)

Démonstration. — Par récurrence : P (A′∩An) = P (A′)P (An/A′) est la définition de la pro-babilité conditionnelle avec P (A′) > 0. Supposons la formule vraie pour n −1, nous obte-nons la formule au rang n en posant A′ = A1 ∩ . . .∩ An−1.

Définition 2.1.5. — Nous dirons que les évènements A et B sont indépendants si et seule-ment si P (A∩B) = P (A)P (B).

Remarque 2.1.3. — Les évènements A et B sont indépendants si et seulement si P (A) =0 ou P (B) = 0 ou si le conditionnement est sans effet, c’est-à-dire : P (A/B) = P (A) etP (B/A) = P (B).

Page 23: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

2.1. ESPACES PROBABILISÉS 23

Plus généralement :

Définition 2.1.6. — Les évènements A1, . . . , An sont mutuellement indépendants si et seule-ment si, quelle que soit la partie j1, . . . , jm de 1,n :

P (A j1 ∩ . . .∩ A jm ) = P (A j1 ) . . .P (A jm )

Remarque 2.1.4. — Si les probabilités de ces évènements ne sont pas nulles, nous pour-rions écrire P (A j1 /A j2∩. . .∩A jm ) = P (A j1 ), qui signifie que les probabilités des évènementsne dépend pas de l’information que l’on a sur les autres.

Remarque 2.1.5. — A et B sont indépendants si et seulements si A et B sont indépen-dants (B désigne le complémentaire ou évènement contraire de B).

Définition 2.1.7. — Soit (B j ) j∈I une suite (finie ou non) de tribus deΩ. Nous dirons queces tribus sont indépendantes si et seulement si quelle que soit la suite (B j ) j∈I d’évène-ments tels que pour tout j : B j ∈B j , (B j ) j∈I est une suite d’évènements indépendants.

Définition 2.1.8. — Soit (Ω,A ) une espace probabilisable et X une variable aléatoire

X : Ω→Rd

La tribu associée à X est la plus petite tribu qui contient les ensembles (X = x) (ou X −1).

Il s’agit de la plus petite tribu au sens de l’inclusion. Autrement dit, cette tribu doitcontenir au mooins les réunions ou intersections de suites d’éléments de la forme (X = x).C’est donc exactement l’ensemble T de ces réunions et intersections. Par exemple (X =3)∩ (X =−2), (X = 1)∪ . . .∪ (X = 10) doivent appartenir à cette plus petite tribu.

Admettons l’existence de cette tribu, bien qu’il ne soit pas difficile de démontrer queT vérifie la définition d’une tribu. La preuve utilise les propriétés de l’intersection et de laréunion.

Remarque 2.1.6. — N’oublions pas que, par définition d’une variable aléatoire, les élé-ments de T appartiennent aussi à A .

Définition 2.1.9. — Nous dirons que la suite (Xn)n∈I (finie ou non) est une suite de va-riables aléatoires indépendantes si et seulement si leurs tribus associées sont indépen-dantes.

Notations 2.1.1. — Désormais, nous noterons plus simplement P ((X = j )∩ (Y = k)) =P (X = j ,Y = k).

Remarque 2.1.7. — Pour démontrer que (Xn)n∈I est une suite de variables aléatoires in-dépendantes, il suffit de vérifier que pour toute partie j1, . . . , jm de I (I ⊂ N), tous réelsx j1 , . . . , x jm :

P (X j1 = x j1 , . . . , X jm = x jm ) = P (X j1 = x j1 ) · · ·P (X jm = x jm )

Page 24: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

24 CHAPITRE 2. GÉNÉRALITÉS

2.1.3. Espérance, covariance et variance. — Ci-dessous, E = (Ω,A ,P ), E désigne un es-pace probabilisé.

Les démonstrations seront faites dans le cas des variables discrètes, le cas des variables àdensités étant similaire.

Définition 2.1.10 (Espérance, cas discret). — Soit X une v.a.r. discrète sur R. Posons X (Ω) =(x j ) j∈I (I est un ensemble dénombrable). Nous dirons que X admet une espérance, notéeE(X ), si et seulement si ∑

j∈Ix j P (X = x j )

est absolument convergente, dans ce cas

E(X ) = ∑j∈I

x j P (X = x j )

E définit une application appelée espérance.

Si l’ensemble I est fini, l’espérance est toujours définie.Autrement dit : nous faisons la somme des produits de la valeur de la variable et de la

probabilité de cette valeur.

Remarque 2.1.8. — Lorsque la somme comportera un nombre infini de termes nous de-vons faire appel à la notion de limite. Dans la plupart des cas rencontrés ici nous n’effec-tuerons que des sommes d’un nombre fini de termes.

Définition 2.1.11. — Une densité est une application à valeurs positives, intégrable etd’intégrale égale à 1.

Exemple 2.1.1. — La fonction x 7→ 3x2 définit une densité sur [0,1] car elle est continueet

∫ 10 3x2 dx = 1.

Définition 2.1.12 (Espérance, cas des densités). — Soit X une v.a.r. de densité f sur l’in-tervalle I de R. Nous dirons que X admet une espérance, notée E(X ), si et seulement si∫

Ix f (x)dx

est définie, dans ce cas l’espérance de X est

E(X ) =∫

Ix f (x)dx

La définition se généralise aux dimensions supérieures à 1.

Notations 2.1.2. — x étant un réel, l’image réciproque de x par l’application X , c’est-à-dire l’ensemble des ω dans Ω tels que X (ω) = x est noté ω ∈ Ω/X (ω) = x ou X −1(x) ouencore (et le plus souvent en théorie des probabilités) (X = x). Puisque X est mesurable,(X = x) est un élément de A , son image par la probabilité P est notée P (X = x). Pour unensemble E (mesurable) quelconque : X −1(E) = (X ∈ E).

Page 25: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

2.1. ESPACES PROBABILISÉS 25

Définition 2.1.13. — La loi de la variable aléatoire X est la fonction x 7→ P (X = x) si X estdiscrète. La loi d’une v.a.r. X à densité est sa densité. La loi de X est notée PX .

La fonction de répartition de X est

FX : x 7→ P (X < x)

Proposition 2.1.3. — L’espérance E est

1. linéaire : pour tous scalaires α et β, toutes v.a. X et Y , nous avons :

E(αX +βY ) =αE(X )+βE(Y )

2. positive (ou croissante) : si X est une v.a. positive ( i.e. qui prend des valeurs positives) :E(X ) ≥ 0. Par suite, si deux v.a. sont telles que X ≤ Y alors : E(X ) ≤ E(Y ).

Exemple 2.1.2. — Pour une constante E(1) = 1P (1 = 1) = P (Ω) = 1.

Remarque 2.1.9. — Dans le cas d’un vecteur aléatoire X , son espérance est le vecteurdont les coordonnées sont les espérances des coordonnées de X .

La proposition suivante n’a un intérêt que pour les variables prenant un nombre infinide valeurs.

Proposition 2.1.4. — Soit X une v.a.r. telle que X 2 ait une espérance. Alors X a aussi uneespérance.

Démonstration. — D’après la définition, nous pouvons supposer que X ne prend que desvaleurs positives.

Soit (x j ) j∈N la suite des valeurs de X . Appelons Xn la variable aléatoire définie parX j = X si j ≤ n

X j = 0 sinon

Alors E(Xn) = ∑j≥+∞ x j P (Xn = x j ) ou E(Xn) = ∑

0≤ j≤n x j P (X = x j ). L’espérance étant po-sitive, pour tout réel t :

0 ≤ E((Xn + t )2) = E(1)t 2 +2tE(Xn)+E(X 2n)

Donc le discrimant du polynôme de la variable t est négatif :

∆= 4E(Xn)−4E(X 2n) ≤ 0

d’où E(Xn) ≤√

E(X 2n), qui s’écrit :

∑0≤ j≤n

x j P (X = x j ) ≤√ ∑

0≤ j≤nx2

j P (X 2 = x2j )

ou, puisque les valeurs (x j ) sont positives :

0 ≤ ∑0≤ j≤n

x j P (X = x j ) ≤√ ∑

0≤ j≤nx2

j P (X = x j )

Page 26: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

26 CHAPITRE 2. GÉNÉRALITÉS

E(X 2n) converge, en croissant, vers E(X 2), donc la suite (E(Xn))n∈N est croissante et majo-

rée, nous en déduisons qu’elle converge, alors par définition :

E(X ) = limn→+∞

∑0≤ j≤n

x j P (X = x j )

Définition 2.1.14. — Soit X une v.a. telle que X 2 admette une espérance. Alors E((X −E(X ))2) est appelé variance de X , est noté var(X ) et

pvar(X ) est appelé écart-type, que

nous noterons σ(X ).(E((X −E(X ))2) = E(X 2)− (E(X ))2)

Remarque 2.1.10. — La racine carrée de la somme des carrés peut faire penser à une dis-tance euclidienne. C’en est une. Du point de vue des unités, l’écart-type est préférable à lavariance car il possède la même unité que la variable.

Proposition 2.1.5. — Pour toute variable aléatoire X admettant une espérance et une va-riance :

– Pour tout réel a : var(aX ) = a2var(X )– Pour tout réel b : var(X +b) = var(X )

Définition 2.1.15. — Une variable aléatoire réelle X est dite

1. centrée si et seulement si E(X ) = 0

2. réduite si et seulement si σ(X ) = 1.

Exercice 2.1.1. — Soit X une v.a.r., alors X−E(X ) est centrée et Xσ(X ) est réduite, à la condi-

tion que l’espérance et la variance existent. La variable X−E(X )σ(X ) est la variable centrée ré-

duite associée à X . Inversement, si X0 est une variable centrée réduite, a et b réels, alors lavariable X = aX0 +b a une espérance égale à b et un écart-type égal à |a|.Définition 2.1.16. — Soient X et Y deux variables aléatoires réelles, la covariance de X etY est le nombre cov(X ,Y ) égal à E((X −E(X ))(Y −E(Y ))) ou

cov(X ,Y ) = E(X Y )−E(X )E(Y )

Soit X = (X1, . . . , Xm) un vecteur aléatoire Ω→ Rm , la matrice de covariance de X est lamatrice symétrique KX = (cov(X j , Xk ))0≤ j≤m

0≤k≤m.

Proposition 2.1.6. — Si X et Y sont deux v.a.r. indépendantes : cov(X ,Y ) = 0.

Démonstration. — Posons I = (X (Ω),Y (Ω)) :

E(X Y ) = ∑(x,y)∈I

x yP (X = x,Y = y)

= ∑(x,y)∈I

x yP (X = x)P (Y = y)

=( ∑

x∈X (Ω)xP (X = x)

)( ∑y∈Y (Ω)

yP (Y = y)

)= E(X )E(Y )

Page 27: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

2.1. ESPACES PROBABILISÉS 27

Remarque 2.1.11. — La réciproque est fausse comme le démontre un contre-exemplesuivant.

1. Soit X la v.a.r. telle que X ∈ −1,1,−2,2 (soit X (Ω) = −1,1,−2,2), la loi de X estuniforme (i.e. les quatre valeurs −1,1,−2,2 ont des probabilités égales à 1

4 ). Soit Y =X 2, alors : P (X = x,Y = y) = 0 si y 6= x2 et

P (X = 1,Y = 1) = 14 P (X = 2,Y = 4) = 1

4P (X =−1,Y = 1) = 1

4 P (X =−2,Y = 4) = 14

Or E(X Y ) = E(X 3) = 0, ce qui implique cov(X ,Y ) = 0, pourtant X et Y ne sont pasindépendantes car P (X = 1,Y = 1) 6= P (X = 1)P (Y = 1).

2. Soient deux v.a.r. de même loi, nous avons :

E((X +Y )(X −Y )) = E(X 2)−E(Y 2) = 0

et E(X −Y ) = 0, donc nous obtenons cov(X +Y , X −Y ) = 0 bien qu’il existe des casoù X +Y et X −Y ne sont pas indépendantes, par exemple la somme et la différencedes points obtenus avec une paire de dés non pipés.

Définition 2.1.17. — Le coefficient de corrélation (linéaire) des v.a.r. X est Y est, lorsqu’ilest défini, le nombre ρ(X ,Y ) :

ρ(X ,Y ) = cov(X ,Y )pvar(X )var(Y )

Proposition 2.1.7. — Nous avons :

1. |ρ(X ,Y )| ≤ 1

2. |ρ(X ,Y )| = 1 si et seulement s’il existe des réels a et b tels que

P (Y 6= aX +b) = 0

Autrement dit, Y = aX +b est l’évènement certain.

Démonstration. — Nous remarquons queρ est invariant par translations, c’est-à-dire quepour tous réels u et v :

ρ(X −u,Y − v) = ρ(X ,Y )

et par homothéties, c’est-à-dire que pour tout réel λ :

ρ(λX ,Y ) = ρ(X ,λY ) = ρ(X ,Y )

Soient X0 et Y0 les variables centrées réduites associées à X et Y , alors il est facile de voirque ρ(X ,Y ) = ρ(X0,Y0) et

X =σ(X )X0 +E(X ) et Y =σ(Y )Y0 +E(Y )

1. Pour tout réel ε :

var(X0 +εY0) = E((X0 +εY0 −E(X0 +εY0))2)

Page 28: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

28 CHAPITRE 2. GÉNÉRALITÉS

en développant

var(X0 +εY0) = var(X0)+2εcov(X0,Y0)+var(Y0)

= 2(1+ερ(X0,Y0))

d’où

ερ(X0,Y0) ≥−1

Si ε= 1 nous constatons que ρ(X0,Y0) ≥−1 et si ε=−1 il apparaît que ρ(X0,Y0) ≤ 1.

2. Si ρ(X0,Y0) = 1, posons ε=−1, le calcul précédent montre que

0 ≤ var(X0 −Y0) = 2(1−1) = 0

Donc, comme nous l’avons déjà vu : X0−Y0 est une constante c. Le cas ρ(X0,Y0) =−1est semblable.

Finalement

σ(Y )X −σ(X )Y =σ(X )σ(Y )c +σ(Y )E(X )−σ(X )E(Y )

(X ,Y ) vérifie l’équation d’une droite carσ(X ),σ(Y ),E(X ) et E(Y ) sont des constantes.

Remarque 2.1.12. — Cette proposition justifie l’adjectif linéaire attribué à ce coefficient(y = ax +b étant une équation de droite).

Remarque 2.1.13. — L’application E se comporte comme une projection

E : X 7→ E(X )

et définit un produit scalaire :ϕ : (X ,Y ) 7→ E(X Y )

Autrement dit, les variables aléatoires se comportent comme des vecteurs vis à vis descalculs (somme de vecteurs, multiplication d’un vecteur par un réel) etϕ vérifie les mêmesformule que le produit scalaire usuel :

1. pour tous réels a et b, toutes v.a.r. X ,Y et Z :

ϕ(aX +bY , Z ) = aϕ(X , Z )+bϕ(Y , Z )

2. ϕ(X ,Y ) =ϕ(Y , X )

3. ϕ(X , X ) ≥ 0

4. ϕ(X , X ) = 0 si et seulement si X = 0.

(vérifier ces propriétés à partir de la définition est un exercice pas trop difficile.)Le vecteur X est projeté (orthogonalement pour ce produit scalaire) en E(X ) sur la

droite R identifiée aux applications constantes. En effet :

ϕ(X −E(X ),1) = E(X −E(X )) = E(X )−E(X ) = 0

La covariance de X et Y s’écrit en fonction de ce produit scalaire :

cov(X ,Y ) =ϕ(X −E(X ),Y −E(Y ))

Page 29: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

2.1. ESPACES PROBABILISÉS 29

X

E(X)

0

R

Ceci permet d’avoir une vision géométrique des calculs.

Page 30: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous
Page 31: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

CHAPITRE 3

PROBABILITÉS DISCRÈTES

3.1. Variables aléatoires discrètes

Les définitions sont données dans un cadre général. Pour des probabilités sur un en-semble fini, pour des ensembles finis de valeurs des variables, on pourra ignorer ce qui serapporte aux limites.

3.1.1. Généralités. —

Exemple 3.1.1. — Soit Ω = p, f l’espace à deux éléments du jeux de pile ou face. Lorsd’une succession de lancers, le joueur qui gagne empoche 2€ et celui qui perd débourse 3€.Désignons par X la variable aléatoire égale au gain du premier joueur. A étant l’évènement«le premier joueur gagne»,Ωà A représente l’évènement «le premier joueur perd» et nousavons :

X (A) = 1, X (Ωà A) =−2

Le jeu étant supposé équitable (les probabilités de «pile» et «face» sont égales), la moyenne(espérée) des gains est : 2 1

2 + (−3) 12 soit une perte de 50 centimes.

Ceci motive la définition de l’espérance.

3.1.2. Probabilités conditionnelles. — (voir 22)

Exemple 3.1.2. — Une famille est composée de deux parents et de deux enfants. Les pos-sibilités des sexes des enfants sont Ω = F F ,FG ,GF ,GG, les lettres «F» pour fille et «G»pour garçon et l’ordre des lettres indique l’ordre des naissances. Toutes les eventualitésont la même probabilité.

P (F F ) = P (FG) = P (GF ) = P (GG) = 1

4Nous voulons calculer la probabilité que le second enfant soit une fille, cet évènement estreprésenté par F F ,GF .

1. Si nous n’avons aucun renseignement, cette probabilité est égale à :

Card(F F ,GF )

Card(F F ,FG ,GF ,GG)= 1

2

Page 32: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

32 CHAPITRE 3. PROBABILITÉS DISCRÈTES

2. Si nous savons que l’un des enfants est une fille, nous posons A = F F ,FG ,GF , laprobabilité est alors

Card(F F ,GF )

Card(F F ,FG ,GF )= 2

3

ou, avec les probabilités conditionnelles :

P (F F ,GF /F F ,FG ,GF ) = P (F F ,GF ∩ F F ,FG ,GF )

P (F F ,FG ,GF )=

2434

3. Si nous savons que l’aîné est une fille, alors A = F F ,FG et

P (F F ,GF /F F ,FG) = P (F F ,GF ∩ F F ,FG)

P (F F ,FG)=

1424

= 1

2

Exercice 3.1.1. — Considérons le jeu qui consiste à jeter deux dés non pipés et discer-nables (un bleu et un rouge, par exemple). L’ensembleΩ des évènements élémentaires estdonné par Ω = 1,62, la tribu est l’ensemble de toutes les parties (tout est mesurable) etla probabilité d’un évènement élémentaire est 1

36 . Notons que ce jeu équivaut à lancer unseul dé non pipé deux fois de suite.

Considérons les évènements

1. A : «le dé bleu montre un numéro impair», donc A = 1,3,5×1,6.

2. B : «le dé rouge montre un numéro impair» soit B = 1,6× 1,3,5

3. C : «la somme des nombres de chaque dé est impaire» d’où C = (1,3,5× 2,4,6)∪(2,4,6× 1,3,5), d’où P (C ) = 9

36 + 936 .

Nous en déduisons

1. A∩B = 1,3,5× 1,3,5, donc P (A∩B) = 936 .

2. B ∩C = 2,4,6× 1,3,5 soit P (B ∩C ) = 936 .

3. C ∩ A = 1,3,5× 2,4,6 d’où P (C ∩ A) = 936 .

Les évènements A,B et C sont indépendants deux à deux mais pas dans leur ensemble(mutuellement).

En effet : P (A) et P (B) valent 1836 . A ∩B est l’évènement 1,3,52 donc P (A ∩B) = 9

36 etc.Alors que A∩B ∩C =∅ donc P (A∩B ∩C ) 6= P (A)P (B)P (C ).

Remarque 3.1.1. — Soit X la variable aléatoire qui donne le nombre renvoyé par le débleu et Y la variable qui donne le nombre renvoyé par le dé rouge. Alors, pour tous entiersj et k :

P ((X = j )∩ (Y = k)) = P (X = j )P (Y = k)

car les évènements (X = j ) et (Y = k) sont indépendants.

Page 33: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

3.2. EXEMPLES 33

3.2. Exemples

3.2.1. La loi hypergéométrique. — J’ai un sac de n d’un malencontreux mélange de n1

bonbons au miel et de n2 bonbons à la moutarde (n = n1 +n2). Je prends une poignéede r bonbons, au hasard, dans le sac (avec, laissons une chance au gourmant, r ≤ n1).Pour avoir une probablité uniforme, nous supposons que les bonbons sont tous distincts,alors l’espace Ω de probabilité associé est l’ensemble des parties à r éléments d’un en-semble à n éléments. A priori et il n’y a pas de raison d’en douter, la tribu est P(Ω). Tousles évènements élémentaires sont équiprobables, la probabilité sur Ω est donc la proba-bilité uniforme. La probabilité d’un évènement élémentaire est 1(n

r

) . Soit X la v.a.r. égale au

nombre de bonbons au miel dans la main. Une poignée de r bonbons contient r1 bon-bons au miel et r2 = r − r1 bonbons à la moutarde. Par conséquent, l’évènement (X = r1)contient

(n1r1

)(n2r2

)poignées distinctes, nous en déduisons

P (X = r1) =(n1

r1

)(n2r2

)(nr

)Définition 3.2.1. — La v.a.r. X suit une loi hypergéométrique de paramètres n1 et n2.(La loi se généralise à plus deux paramètres)

Calcul de l’espérance de X . Nous pouvons calculer directement l’espérance de X par

E(X ) = ∑0≤k≤r

kP (X = k)

= n1r

n(exercice sur les coefficients binomiaux)

Nous allons donner un calcul «probabiliste». Soit M j la v.a.r. égale à 0 si le j e bonbonau miel n’est pas dans la main et égale à 1 s’il y est. Alors la probabilité de (M j = 0) est lequotient du nombre de poignées ne contenant pas un bonbon donné (le j e bonbon aumiel) divisé par le nombre total de poignées :

P (M j = 0) =(n−1

r

)(nr

)= n − r

n

par suite

P (M j = 1) = 1−P (M j = 0)

= r

nNous avons E(M j ) = 0 n−r

n +1 rn = r

n et X =∑1≤ j≤n1 M j , nous en déduisons

E(X ) = ∑1≤ j≤n1

E(M j )

= n1r

nNous calculons la variance avec plus de difficulté.

Page 34: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

34 CHAPITRE 3. PROBABILITÉS DISCRÈTES

De plus, M j Mk n’est non nul que pour M j = 1 et Mk = 1, or si j 6= k : P (M j = 1, Mk =1) =

(n−2r−2

)(nr

) car les bonbons j et k étant pris, nous choisissons les r −2 autres bonbons parmi

les n −2 qui restent.

Par suite (si j 6= k) : E(M j Mk ) = 0+1(n−2

r−2

)(nr

) = r (r−1)n(n−1) , donc

cov(M j , Mk ) = E(M j Mk )−E(M j )E(Mk )

= r (r −1)

n(n −1)− r 2

n2

Donc

var(X ) = cov(X , X )

= cov

( ∑1≤ j≤n1

M j ,∑

1≤k≤n1

Mk

)= ∑

1≤ j≤n1

cov(M j , M j )

il y a n1 termes tels que j = k et n21 −n1 termes tels que j 6= k

var(X ) = n1var(M1)+ (n21 −n1)

(r (r −1)

n(n −1)− r 2

n2

)= n1r

n

(1− r n1

n+ (n1 −1)(r −1)

n −1

)= n1r

n2(n −1)(n − r )(n −n1)

finalement

var(X ) = r n1n2(n − r )

n2(n −1)

3.2.2. La loi binomiale. — Supposons que n soit grand relativement à r dans la loi hy-pergéométrique, il vient(n1

k

)( n2r−k

)(nr

) =(

r

k

)n1(n1 −1) . . . (n1 −k +1)n2(n2 −1) . . . (n2 − (r −k)+1)

n(n −1) . . . (n −R +1)

=(

r

k

)(n1

n

)k (n2

n

)r−kε(n,n1,n2,r ,k)

ε(n,n1,n2,r ,k) =(1− 1

n1

). . .

(1− k−1

n1

)(1− 1

n2

). . .

(1− r−k−1

n2

)(1− 1

n

). . .

(1− r−1

n

)est tel que ε(n,n1,n2,r ,k) ∼+∞ 1.

Page 35: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

3.2. EXEMPLES 35

Posons p = n1n , ainsi q = 1−p = n2

n et nous obtenons la loi binomiale :

P (X = k) =(

r

k

)pk (1−p)r−k

De plus :

E(X ) = ((xp +q)r )′

x=0 = r p

ou

E(X ) =k=r∑k=1

k

(r

k

)pk (1−p)r−k = r p

de même :

E(X 2 −X ) = (pr (xp +q)r−1)′

x=0 = r (r −1)p2

or var (X ) = E(X 2)−E(X )2 = E((X −E(X ))2), donc

var (X ) = r pq

3.2.3. La loi de Poisson. — Soit a une constante réelle et supposons maintenant quepr ∼

r→+∞ a. Nous pouvons approcher la loi binomiale de la façon suivante

(r

k

)pk (1−p)r−k = (1−p)r r !

k!(r −k)!pk

(1−p)k

r k

r k

= r (r −1) . . . (r −k +1)

r k(1−p)r (pr )k

k!

=(1− 1

r

). . .

(1− k −1

r

)er ln(1−p) (pr )k

k!

= ∼r→+∞ e−a ak

k!

Nous obtenons ainsi la loi de Poisson

P (X = k) = e−a ak

k!

Exemple 3.2.1. — Soit X la variable aléatoire égale au nombre d’objets défectueux dansun tirage aléatoire de 20 objets dans un lot de 10000 objets dont 500 sont défectueux.

La loi de X est hypergéométrique avec n1 = 500, n = 10000 et r = 20. Comme rn est

petit nous pouvons l’approcher par une loi binomiale avec r = 20 et p = n1n = 1

20 , p étantrelativement petit nous pouvons l’approcher par une loi de Poisson où a = 1 :

P (X = k) = 1

ek!

Page 36: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

36 CHAPITRE 3. PROBABILITÉS DISCRÈTES

Calcul de l’espérance :

E(X ) = ∑k≥0

kak

k!e−a

= ae−a∑k≥1

ak−1

(k −1)!

= ae−a∑j≥0

a j

j !

= a

Remarquons que nous trouvons la limite de l’espérance de la loi binomiale lorsque pr →a.

Calcul de la variance :

E(X (X −1)) = ∑k≥0

k(k −1)ak

k!e−a

= a2e−a∑k≥2

ak−2

(k −2)!

= a2e−a∑j≥0

a j

j !

= a2

var (X ) = E(X 2 −X )+E(X )−E(X )2

= a

(nous retrouvons la limite de la variance de la loi binomiale).

Page 37: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

CHAPITRE 4

DENSITÉS

4.1. Variables aléatoires à densités

Remarque 4.1.1. — Les définitions et propriétés concernant les variables aléatoires dis-crètes sont toujours valables.

4.1.1. Généralités. —

Définition 4.1.1. — Une variable aléatoire réelle X a une densité f si et seulement si

P (X ∈ [a,b[=∫ b

af (x)dx

( f ≥ 0)

Ici f sera une fonction continue, éventuellement continue par morceaux, sauf mentiondu contraire. Bien entendu :

P (X ∈R) =∫R

f (x)dx = P (Ω) = 1

La fonction de répartition F est F (x) = P (X < x) = ∫ x−∞ f (t )dt :

F (b)−F (a) =∫ a

af (t )dt

Si f est continue sur [a,b] : F ′ = f .

Exemple 4.1.1. — La densité uniforme sur [0,2] :f (x) = 1

2 si x ∈ [0,2]

f (x) = 0 sinon

Exemple 4.1.2. — Autres densités remarquables

1. Densité exponentielle (λ> 0) :si t ≥ 0 f (t ) =λe−λt

sinon : f (t ) = 0

Page 38: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

38 CHAPITRE 4. DENSITÉS

2. Densité de Cauchy

∀t ∈R, f (t ) = 1

π(1+ t 2)

3. Densité de Gauss

∀t ∈R, f (t ) = 1p2π

e−t22

4.1.2. Espérance, variance, covariance. —

Définition 4.1.2. — X est une variable aléatoire réelle. Lorsquelles sont définies, l’espé-rance de X est

E(X ) =∫R

t f (t )dt

et la variance

var (X ) =∫R

t 2 f (t )dt −E(X )2

Les notions d’indépendance, de covariance, sont les mêmes que dans le cas discret àceci près

cov(X ,Y ) =ÏR2

x y f (x, y)dxdy

où f est la densité du vecteur.

Exemple 4.1.3. — Calculs d’espérances

1. Densité uniforme sur [a,b] (a 6= b) :

E(X n) = 1

b −a

∫ b

axndx = bn+1 −an+1

(n +1)(b −a)

nous obtenons

E(X ) = a +b

2(moyenne de a et b) et

var (X ) = (b −a)2

122. Densité exponentielle (λ> 0) :

E(X n) =∫R+

t n λe−λt dt

par parties

=∫ ∞

0nt n−1e−λt dt

si n ≥ 1

=(

d

)n−1 ∫ ∞

0n(−1)n−1e−λt dt

= n!λn

Page 39: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

4.1. VARIABLES ALÉATOIRES À DENSITÉS 39

nous en déduisons

E(X ) = 1

λ, var (X ) = 1

λ2

3. Densité de Cauchy. Ni espérance, ni variance car 1t 2 ∼±∞

1t .

4. Densité de Laplace-Gauss. Nous obtenons

E(X ) =∫R

1p2π

te−t22 dt = 0

(intégrale d’une fonction impaire) et, par parties :

var (X ) =∫R

1p2π

te−t22 dt = 1

Page 40: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous
Page 41: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

CHAPITRE 5

CONVERGENCES

5.1. Inégalités

Proposition 5.1.1. — Soientϕ une application croissante deR+ dansR?, X une v.a.r. tellesque E(ϕ(|X |)) existe. ALors pour t dans R+ :

P (|X |) ≤ E(ϕ(|X |))

ϕ(t )

Démonstration. — |X | ≥ t implique ϕ(|X |) ≥ϕ(t ) donc, 1 désignant une fonction indica-trice :

ϕ(|X |) ≥ϕ(t )1|X |≥t

d’après les propriétés de l’espérance :

E(ϕ(|X |)) ≥ϕ(t )E(1|X |≥t ) =ϕ(t )P (|X | ≥ t )

Remarque 5.1.1. — L’inégalité de Tchebycheff est le cas où ϕ(t ) = t 2 et X est remplacéepar la v.a.r. centrée X −E(X ) :

var(X ) ≥ t 2P (|X −E(X )| ≥ t )

Cette inégalité est utile en théorie mais médiocre numériquement.

5.2. Lois des grands nombres

Théorème 5.2.1 (Loi faible des grands nombres). — Soient (Ω,A ,P ) un espace probabi-lisé et (Xm)m≥1 une suite de v.a.r. indépendantes suivant une même loi de Bernoulli de pa-ramètre p. Alors la suite (Sn)n≥1 avec Sn = ∑

1≤m≤n Xm suit une loi binomiale et pour toutε> 0 :

P

(∣∣∣∣Sn

n−p

∣∣∣∣≥ ε)≤ p(1−p)

nε2

ainsi limn→+∞ P(∣∣∣ Sn

n −p∣∣∣≥ rε

)= 0.

Il existe des énoncés plus généraux mais celui-ci suffira.

Page 42: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

42 CHAPITRE 5. CONVERGENCES

Démonstration. — Nous avons E(

Snn

)= p, ensuite :

E

((Sn

n−p

)2)= var

(Sn

n−p

)=

(Sn −np

n

)d’après l’indépendance de la suite

= 1

n2

n∑m=1

var(Xm −p)

= 1

n2

n∑m=1

var(Xm)

q = 1−p

= 1

n2 npq

= pq

n

Nous concluons à l’aide de l’inégalité de Tchebycheff (P (|X | > ε) ≤ var(X )ε2 ).

5.3. Théorème de la limite centrée

Théorème 5.3.1 (de Moivre et Laplace). — Soit (Sn)n≥1 une suite de v.a.r. de loi binomialeb(n, p), alors :

limn→+∞P

(a ≤ Sn −npp

npq≤ b

)= 1p

∫ b

ae−

x22 dx

(q = 1−p)

Remarque 5.3.1. — 1. E(Sn) = np et var(Sn) = npq de sorte que Sn−nppnpq est centrée ré-

duite (espérance nulle et variance égale à 1).

2. C’est un exemple de résultat du type limite cantrée (ou centrale).

3. Ce théorème donne une meilleure connaissance de la convergence de(

Snn

)n

vers p

d’après l’estimation des inégalités

ap

pqpn

≤ Sn −nppnpq

≤ bp

pqpn

4. Comme la loi de Poisson approche la loi binomiale dans certains cas, nous avonsaussi une approximation de la loi de Poisson par la loi normale.

5. Pour retenir le théorème, avec S?n = Sn−nppnpq :

P (a ≤ S?n ≤ b)#1p2π

∫ b

ae−

x22 dx

i.e. est presque normale.

Page 43: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

5.4. LOI FAIBLE : VERSION PLUS FORTE 43

6. Si pour une loi binomiale (lorsque n →+∞), np → λ (limite finie, doncp

npq tendvers

pλ puisque q tend vers 1) la loi de Poisson fournit une bonne approximation et

il n’est pas utile de faire appel à la loi normale.

Exemple 5.3.1 (Problème de téléphones). — Un nombre N de canaux est disponible pour2000 personnes, la situation est comparée à 2000 épreuves de Bernoulli de paramètrep = 1

30 . Nous désirons que la probabilité de N appels simultanés soit inférieure à 1100 soit,

avec les notations ci-dessus, P (S2000 ≤ N ) ≥ 0,01. Approchons la loi de S avec une loi dePoisson de paramètre λ= 66,67 (peu différent de np), nous trouvons, grâce à

P (S2000 ≥ N ) = ∑m≥N

e−λλm

m!

et une calculette que N est égal à 88.Avec la loi normale

1p2π

∫ x

−∞e−

t22 dt = 0,99

nous trouverions environ x = 2,33 donc

N − 200030√

2000 130

2930

≥ 2,33

soit N ≥ 86.

5.4. Loi faible : version plus forte

Théorème 5.4.1 (Loi faible). — Soit (Xm)m≥1 une suite de v.a.r. indépendantes et équidis-tribuées ( i.e. de même loi) et pour tout entier n ≥ 1 : Sn = ∑n

m=1 Xm . Si E(Xm) = µ existe,alors pour tout réel ε> 0 :

limn→+∞P

(∣∣∣∣Sn

n−µ

∣∣∣∣≥ ε)= 0

Exemple 5.4.1. — f est une fonction continue par morceaux sur [0,1] et (Tn)nög eq1 estune suite de v.a.r. indépendantes de loi uniforme sur [0,1], alors les f (Tn) sont aussi indé-pendantes (nous l’admettrons). Posons µ= ∫ 1

0 f (t )dt , la loi faible indique que

limn→+∞

1

n

∑1≤m≤n

f (Tm) =µ

Ce résultat est la méthode de Monte-Carlo de calcul des intégrales, valable pour toutefonction intégrable, elle se généralise aux dimensions supérieures à 1. La contrepartie estque la vitesse de convergence est très lente, de l’ordre de 1p

nsi l’écart-typeσ existe (racine

carrée de la variance) :

P

(−ε σp

n≤ Sn

n−µ≤ ε σp

n

)→

n→+∞ 0

(voir plus loin)

Page 44: INITIATION AUX PROBABILITÉS...Cependant, pour une initiation, nous réempruntons les vieux chemins. 1.1. Exemples 1.1.1. Fréquences. — La place y est belle pour les jeux. Nous

44 CHAPITRE 5. CONVERGENCES

5.5. Limite centrée

Dernier théorème de limite centrée (il faut savoir s’arrêter).

Théorème 5.5.1 (Limite centrale). — Soit (Xm)m≥1 une suite de v.a.r. indépendantes et équi-distribuées. Pour tout entier n ≥ 1 : Sn = ∑n

m=1 Xm . Si E(Xm) = µ et σ2 = var(Xm) existent,S?n étant la variable centrée réduite associée à Sn , pour tout réel x :

limn→+∞P

(S?n < x

)= 1p2π

∫ x

−∞e−

t22 dt

Exemple 5.5.1. — Un dé non pipé est lancé un grand nombre de fois, Xk est la v.a.r. quidonne le numéro de la face au ke lancer. Nous avons E(Xk ) = 3,5, var(Xk ) = 35

12 et

P (−x < S?n < x)#1p2π

∫ x

−xe−

t22 dt

Pour n = 1000 et x = 1 :

S?1000 =S1000 −1000×3,5√

1000× 3512

= S1000 −3500

54,01

donc nous avons l’encadrement 3446 ≤ S1000 ≤ 3554 avec une probabilité d’environ

1p2π

∫ 1

−1e−

t22 dt = 0,68

Exemple 5.5.2 (Méthode de Monte-Carlo). — Reprenons les notations et hypothèses ci-dessus.

σ = ∫ 10 f (t )2 dt −

(∫ 10 f (t )dt

)2, var = nσ2 et S?n = Sn−nµ

σp

n. Posons F (x) = 1p

∫ x−∞ e−

t22 dt ,

c’est la fonction de répartition de la loi normale. Nous avons :

P

(−ε σp

n≤ Sn

n−µ≤ ε σp

n

)≈ 1p

∫ ε

−εe−

t22 dt = F (ε)−F (−ε)

or F (−x) = 1−F (x) donc

P

(−ε σp

n≤ Sn

n−µ≤ ε σp

n

)= 2F (x)−1 ≥ 0,99

ce qui donne F (x) ≥ 0,995 d’où x ≥ 3,32, d’après les tables. . . .La précision est de l’ordre de 3,32σp

n, donc le calcul précédent ne sert pas à grand chose,

nous retiendrons la convergence en O(

1pn

)du procédé.

5.6. Résumé

Tableau des approximations généralement effectuées.

Lois vers lois conditionsHypergéométrique H (N ,n, p) → Bernoulli B(n, p) N ≥ 10nBernoulli B(n, p) → Poisson P(np) p ≤ 0,1,n ≥ 30,np < 15Bernoulli B(n, p) → Normale N (np,

√np(1−p) np ≤ 15,n ≥ 30,np(1−p) > 5

Poisson P(λ) → Normale N (λ,pλ) λ≥ 15