332 Proba2222888
332 Proba2222888
332 Proba2222888
Matthieu Kowalski
Table des matières
I. Probabilités discrètes 5
1. Issues, Probabilités, Variables Aléatoires 7
1.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2. Espace des Issues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4. Variable aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.1. Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.2. Loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . 11
1.4.3. Fonction indicatrice . . . . . . . . . . . . . . . . . . . . . . . . . 13
3. Espérance, Variance 23
3.1. Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.1. Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.2. Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2. Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3. Lois classiques et leurs moments . . . . . . . . . . . . . . . . . . . . . . 27
3.3.1. Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3.2. Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.3. Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.4. Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3
Table des matières
4.2.2. Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.3. Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.3. Lois continues classiques . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3.1. Loi uniforme sur un intervalle [a,b] . . . . . . . . . . . . . . . . 42
4.3.1.1. Définition et propriétés . . . . . . . . . . . . . . . . . . 42
4.3.1.2. Preuves . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3.2. Loi exponentielle de paramètre λ . . . . . . . . . . . . . . . . . 43
4.3.2.1. Définition et propriétés . . . . . . . . . . . . . . . . . . 43
4.3.2.2. Preuves . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.3.3. Loi normale de moyenne µ et variance σ2 . . . . . . . . . . . . 44
4.3.3.1. Définition et propriétés . . . . . . . . . . . . . . . . . . 44
4.4. Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4
Première partie .
Probabilités discrètes
5
1. Issues, Probabilités,
Variables Aléatoires
Objectifs:
Contents
1.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2. Espace des Issues . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4. Variable aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.1. Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.2. Loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . 11
1.4.3. Fonction indicatrice . . . . . . . . . . . . . . . . . . . . . . . 13
1.1. Introduction
But : modéliser des expériences où plusieurs issues sont possibles, mais où leurs
réalisations ne sont pas déterminées à l’avance (par exemple un lancer de dés),
ceci en vue d’évaluer les risques ou de mettre sur pied des stratégies pour faire
face aux aléas. La théorie des probabilités ne va pas permettre de prédire quelle
issue va se réaliser, mais quelle chance a chaque issue de se réaliser.
Ainsi, dans un premier temps, on va associer à chaque issue possible un nombre
entre 0 et 1 qui traduit notre estimation des chances que cette issue a de se réali-
ser : on appelle ce nombre la probabilité de cette issue. On appelle "évènement"
un ensemble d’issues. La probabilité qu’on associe à un évènement est la somme
des probabilités de chaque issue de cet ensemble. Typiquement, la question est de
déterminer la probabilité d’un évènement. La difficulté est d’une part de décrire
l’expérience de façon commode afin d’énumérer toutes les issues possibles et leur
7
1. Issues, Probabilités, Variables Aléatoires
Définition 1.1
Une probabilité est un nombre compris entre 0 et 1, associé à un évènement
et indiquant les chances de réalisation de cet évènement au cours d’une expé-
rience aléatoire.
• Univers : Ω = {1, 2, 3, 4, 5, 6}
• obtenir un chiffre pair : A = {2, 4, 6}
• obtenir le chiffre 1 : A = {1}
• obtenir un chiffre plus grand ou égal à 5 : A = {5, 6}
Définition 1.2
Une expérience aléatoire est caractérisée par l’ensemble Ω des résultats pos-
sibles, que l’on suppose dans premier temps fini ou dénombrable. Ω est aussi
appelé espace ou univers probabiliste. Un évènement A est une partie quel-
conque de Ω. Un évènement A est réalisé si le résultat de l’expérience est dans
A.
1.3. Probabilités
On considère des expériences avec un nombre fini ou dénombrable d’issues. On
note Ω cet ensemble d’issues et F l’ensemble des évènements. F est l’ensemble
8
1.3. Probabilités
F = P (ω) = {;, {1}, {2}, {3}, {1, 2}, {2, 3}, {1, 3}, {1, 2, 3}} .
P : P (Ω) → [0, 1]
A 7→ P (A)
telle que
• P (;) = 0 (évènement impossible)
• P (Ω) = 1 (évènement certain)
• si A ∩ B = ;, alors P (A ∪ B ) = P (A) + P (B )
Proposition 1.1
9
1. Issues, Probabilités, Variables Aléatoires
P (A ∪ B ) = P (A) + P (B ) − P (A ∩ B )
1.4.1. Définition
Définition 1.4 (Variable aléatoire)
Une variable aléatoire est une fonction de Ω à valeur dans R.
Une variable aléatoire est donc une fonction tout à fait classique. Pourquoi donc
une définition de plus ? En analyse, il est fondamental de savoir quel est le do-
maine de définition d’une fonction comme sin(x), ou log(x). On doit savoir où se
trouve x : sur [0, π[, ou sur ]0, ∞[, etc. En probabilité, ce qui est important est la
valeur de la fonction. En effet, le domaine Ω n’est pas unique, puisqu’il dépend de
10
1.4. Variable aléatoires
Exemple 1.2
Dans l’exemple d’un lancer de dé, le résultat est une variable aléatoire.
Ω = {1, 2, 3, 4, 5, 6}
X :Ω→N
ω 7→ ω
X :Ω→N
(i , j ) 7→ i + j
11
1. Issues, Probabilités, Variables Aléatoires
∀A ⊂ X (Ω), P X (A) = P (X ∈ A) .
p X : X (Ω) → [0, 1]
x 7→ p X (x) = P (X = x)
p(x) = 0 si x ∉ X (ω)
X
p(x) = 1 car X prend forcément une valeur.
x∈R
Ainsi, pour connaitre la loi d’une variable, il faut connaitre l’ensemble de ses
valeurs possibles, et la probabilité avec laquelle elle réalise chaque valeur.
Exemple 1.3
Deux cas simples utilisant des jetés de dés.
• La loi du lancer de dé est donnée par
P (X = 1) = P (X = 2) = . . . = P (X = 6) = 1/6 .
12
1.4. Variable aléatoires
Dans les deux cas, on vérifie qu’on a bien une distribution de probabilité en
vérifiant que la somme fait 1.
On rencontrera souvent des énoncés du type : "Soit X une variable aléatoire de
loi [. . . ]". Il faut comprendre ici que ce qui nous intéresse est la loi de X (les valeurs
prises par X et les probabilités associées), et pas du tout l’espace Ω sur lequel est
définie X . Dans beaucoup de situations, l’espace Ω ne sera même pas explicité.
F X : R → [0, 1]
x 7→ P (X ≤ x)
Proposition 1.2
Soit F X la fonction de répartition de la variable aléatoire X
1. F X est une fonction croissante : si x ≤ y F X (x) ≤ F X (y)
2. F X est continue à droite
3. lim F X (x) = 0
x→−∞
4. lim F X (x) = 1
x→+∞
5. ∀x ∈ R, P (X = x) = F X (x) − lim− F X (y)
y→x
Proposition 1.3
La loi d’une variable aléatoire X est caractérisée par sa fonction de répartition
FX .
13
1. Issues, Probabilités, Variables Aléatoires
F (x)
X
P(X=xi+1)
xi xi+1 0 x
x i+2
Fig. 1.1de
F IGURE 1.1. – Fonction – répartition
Fonction de répartition.
On rappelle
On rappelle qu’une de
qu’une partition Ω est une de
partition Ω de
suite estsous-ensembles
une suite de (A
sous-ensembles
i )i ∈I dis- (Ai )i∈I disjoints
jointsdeux
deuxàà deux,
deux,dederéunion Ω. Ω.
réunion En d’autres termes,
En d’autres termes,
j , A i i∩différent
∀i 6=tout
Pour A j = ; et de
A 1 ∪j,A 2A∪ .∩
i AAj n==∅Ω. et A1 ∪ A2 ∪ · · · ∪ An = Ω.
..∪
On donne alors quelques propriétés simples des fonctions indicatrices.
Proposition 1.4
Proposition 1.4.5 1. 1IA∩B = 1IA 1IB .
2. Si A ∩ B = ∅, alors 1IA∪B = 1IA + 1IB .
1. 3. 1B 1 − 1IA .
1 A∩B1I=A1c A=
"
2. 4.
Si ASi
∩B est1 A∪B
(A=i );,i∈Ialors 1 A + 1B de Ω, alors 1 =
une=partition i∈I 1IAi .
3. 1 A c = 1 − 1 A
Preuve. Nous ne démontrons que le point 4. Soit ω un élément fixé de Ω. (Ai )i∈I étant
une partition, ω appartient à un et un seul des ensembles
" Ai . Autrement, il existe un
unique i tel que 1IAi (ω) = 1. Ainsi, dans la somme i∈i 1IAi (ω) = 1, un seul des termes
est non nul, et vaut 1.
14
8
1.4. Variable aléatoires
Définition 1.8
Soit (A i )i ∈I une partition de Ω. On dit que X se décompose sur la partition
(A i )i ∈I ssi X peut s’écrire sous la forme (non unique)
X = xi 1 Ai ;
X
i ∈I
ce qui signifie que X est constante sur les évènements A i et prend la valeur x i
sur A i .
A i = {ω : X (ω) = x i } .
xi 1 Ai
P
De plus, par définition des A i , on a X = i ∈I
15
2. Indépendance,
Probabilités
conditionnelles
Objectifs:
Contents
2.1. Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2. De la loi de Bernoulli à la loi Binomiale . . . . . . . . . . . . . . . 18
2.2.1. Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.2. Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.3. Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3. Probabilités Conditionnelles . . . . . . . . . . . . . . . . . . . . . 21
2.3.1. Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.2. Formules des probabilités totales et composées . . . . . . . 21
2.1. Indépendance
Soit Ω un ensemble d’issues et P une probabilité sur Ω.
P (A ∩ B ) = P (A)P (B )
17
2. Indépendance, Probabilités conditionnelles
Définition 2.3
Les évènements {A i , i ∈ I } sont indépendants si pour tout ensemble d’indices
J ⊂I Ã !
\ Y
P Aj = P (A j )
j ∈J j ∈J
Par exemple, si l’on a trois évènements {A, B,C } il faut vérifier que
Définition 2.4
Les variables aléatoires {X i , i ∈ I } sont indépendantes si pour tout ensemble
d’indices J ⊂ I et tous réels x j appartenants aux valeurs possibles de X j , j ∈ J
à !
\ Y
P {X j = x j } = P (X j = x j )
j ∈J j ∈J
Proposition 2.1
Soient deux variables aléatoires X , Y indépendantes. Si f , g : R → R sont deux
fonctions quelconques, alors f (X ) et f (Y ) sont indépendantes.
Ω1 = {0, 1}.
18
2.2. De la loi de Bernoulli à la loi Binomiale
Par exemple, dans le cas du lancer d’une pièce équilibrée, p = 1/2. Dans l’exemple
fumeur/non fumeur, en notant 1 l’issue "fumeur", p est la proportion de fumeurs
dans la population considérée.
P 1 précédemment définie s’appelle la loi de Bernoulli de paramètre p. Ainsi,
on dira qu’une variable X est une variable de Bernoulli de paramètre p (et on note
X ∼ B(p)), si X prend ses valeurs dans {0, 1} et P (X = 1) = p = 1 − P (X = 0). On
peut alors écrire la définition suivante
P (0) = 1 − p P (1) = p
P (T = k) = (1 − p)k−1 p.
On note T ∼ G (p).
La loi géométrique correspond à la probabilité d’obtenir un succès au bout
de k lancers.
1
Dans le cas d’un lancer de pièce équilibré (p = 1/2), on a P (T = k) = 2k
.
19
2. Indépendance, Probabilités conditionnelles
∀i = 1, . . . , n ∀ω ∈ Ωn X i (ω) = ωi
card ({ω; S n (ω) = k}) correspond au nombre de choix des k lancers où pile sort,
parmi les n lancers, i.e. de k positions parmi n positions possibles. La première
position peut se choisir parmi n ; La seconde doit correspondre à une position dif-
férente de celle précédemment choisie, et donc n − 1 choix restent possibles. . . et
ainsi de suite jusqu’à la k − ème position qui peut être choisie parmi n − k. Cepen-
dant, avec cet algorithme, un même choix de k positions apparaitra k! fois. On a
donc n(n−1)(n−2)...(n−k +1)/k! choix possibles. C’est le nombre de combinaison
de k parmi n : nk . On a donc
¡ ¢
à !
n n!
card ({ω; S n (ω) = k}) = =
k (n − k)!k!
et à !
n k
P n (S n = k) = p (1 − p)n−k
k
20
2.3. Probabilités Conditionnelles
Proposition 2.2
P (.|B ) est une probabilité sur Ω telle que P (B |B ) = 1.
Proposition 2.3
Si A et B sont deux évènements indépendants avec P (B ) > 0 alors
P (A|B ) = P (A)
P (A∩B ) P (A)P (B )
Démonstration. P (A|B ) = P (B ) = P (B ) = P (A)
P (A ∩ B ) P (B |A)P (A)
P (A|B ) = =
P (B ) P (B )
21
2. Indépendance, Probabilités conditionnelles
22
3. Espérance, Variance
Objectifs:
Contents
3.1. Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.1. Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.2. Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2. Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3. Lois classiques et leurs moments . . . . . . . . . . . . . . . . . . . 27
3.3.1. Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3.2. Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.3. Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.4. Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.1. Espérance
3.1.1. Définition
Définition 3.1
Soit Ω un espace fini ou dénombrable, P une probabilité sur Ω et X une variable
aléatoire. On appelle espérance de X , ou moyenne de X , la quantité
X
E [X ] = P (ω)X (ω)
ω∈Ω
23
3. Espérance, Variance
Proposition 3.1
Si (A i )i ∈I est une partition de Ω et si X se décompose sur cette partition, c’est-
à-dire X = i ∈I x i 1 A i , alors
P
X
E [X ] = x i P (A i )
i ∈I
E [1 A ] = P (A)
24
3.1. Espérance
Avec A i = {X = x i }, on a
X
E [ f (X )] = f (x i )P (X = x i )
i ∈I
Thèorème 3.2 (Image par une fonction d’une V.A. à valeur dans N)
Soient f une fonction et X une variable aléatoire à valeurs dans N. Alors
£ ¤ +∞
X
E f (X ) = f (k)P (X = k)
k=0
3.1.2. Propriétés
Proposition 3.3 (Linéarité de l’espérance)
Soit X et Y deux variables aléatoires, et soit λ ∈ R. Alors
1. E [λX ] = λE [X ]
2. E [X + Y ] = E [X ] + E [Y ]
Démonstration. En revenant à la définition, on a
1.
λX (ω)P (ω) = λ X (ω)P (ω) = λE [X ]
X X
E [λX ] =
ω∈Ω ω∈Ω
2.
X X X
E [X +Y ] = (X (ω)+Y (ω))P (ω) = X (ω)P (ω)+ Y (ω)P (ω) = E [X ]+E [Y ]
ω∈Ω ω∈Ω ω∈Ω
De plus,
25
3. Espérance, Variance
4. |E [X ]| ≤ E [|X |]
‘
E [X Y ] = E [X ]E [Y ]
X = x i 1 A i ∩B j , Y = y j 1 A i ∩B j et X Y = x i y j 1 A i ∩B j .
X X X
i,j i,j i,j
Donc X
E [X Y ] = x i y j P (A i ∩ B j ) .
i,j
= E [X ]E [Y ]
3.2. Variance
Définition 3.2
La variance d’une variable aléatoire X est le nombre positif donné par
Var {X } = E (X − E [X ])2
£ ¤
26
3.3. Lois classiques et leurs moments
4. Var {X } est une somme de terme positifs, donc Var {X } = 0 ssi tous les termes
sont nuls.
5. En utilisant la linéarité de l’espérance avec (X − E [X ])2 = X 2 − 2X E [X ] +
E [X ]2 , on a
Var {X } = E X 2 − 2E [X ]E [X ] + E [X ]2 = E X 2 − E [X ]2
£ ¤ £ ¤
Var {X + Y } = E (X + Y − E [X + Y ])2
£ ¤
= E (X − E [X ] + Y − E [Y ])2
£ ¤
27
3. Espérance, Variance
Définition 3.3
Soit X ∼ B(p), alors X prend les valeurs 0 ou 1, et P (X = 1) = p = 1 − P (X = 0).
Voir aussi cours 2 : Indépendance, probabilités conditionnelles, sous-section
2.1
Proposition 3.7
Soit X ∼ B(p), alors
E [X ] = p Var {X } = p(1 − p)
E [X ] = 1.P (X = 1) + 0.P (X = 0) = p
De plus,
E X 2 = 12 .P (X = 1) + 02 .P (X = 0) = p
£ ¤
et
Var {X } = E X 2 − E [X ]2 = p − p 2 = p(1 − p)
£ ¤
Définition 3.4
Soit X ∼ G (p), alors X ∈ N∗ et P (X = k) = p(1 − p)k−1 . Voir aussi cours 2 :
Indépendance, probabilités conditionnelles, sous-section 2.2
Proposition 3.8
Soit X ∼ G (p), alors
1 1−p
E [X ] = Var {X } =
p p2
Démonstration.
à !
+∞ +∞ d +∞
k−1 k
X X X
E [X ] = kP (X = k) = p k(1 − p) = −p (1 − p)
k=1 k=1 dp k=0
p
µ ¶
d 1 1
= −p = 2=
dp p p p
28
3.3. Lois classiques et leurs moments
£ ¤ +∞ +∞
E X2 = k (1 − p)k−1
X 2 X 2
k P (X = k) = p
k=1 k=1
+∞ +∞
k(k − 1)(1 − p)k−1 + p k(1 − p)k−1
X X
=p
k=1 k=1
+∞
k(k − 1)(1 − p)k−2 + E [X ]
X
= p(1 − p)
k=2
à !
d2 +∞X k
= p(1 − p−) 2 (1 − p) + E [X ]
dp k=0
d2 1
µ ¶
1
= p(1 − p−) 2 +
dp p p
µ ¶
d 1 1
= −p(1 − p) 2
+
dp p p
2p(1 − p) 1
= +
p3 p
2 1
= 2−
p p
Ainsi,
2 1 1 1−p
Var {X } = E X 2 − E [X ]2 = 2 − − 2 =
£ ¤
p p p p2
Proposition 3.9
Soit S n ∼ B(n, p), alors
E [S n ] = np Var {S n } = np(1 − p)
n
X k ∼ B(p), indépendantes
X
Sn = Xk ,
k=1
29
3. Espérance, Variance
λk −λ
∀k ∈ N, P (X = k) = e
k!
Cette définition donne bien une probabilité sur N, étant donne que
∞ λk ∞ λk
e −λ = e −λ = e −λ e λ = 1
X X
k=0 k! k=0 k!
On donne l’espérance et la variance d’une V.A. de Poisson
Proposition 3.10
Soit X ∼ P (λ), alors
E [X ] = λ Var {X } = λ
Démonstration.
+∞ +∞ λk −λ X λk
+∞
e = e −λ
X X
E [X ] = kP (X = k) = k
k=0 k=0 k! k=0 (k − 1)!
k−1
+∞ λ
= λe −λ = λe −λ e λ
X
k=0 (k − 1)!
=λ
£ ¤ +∞ X 2 λk −λ
+∞ +∞ λk
E X2 =
X 2
e = e −λ
X
k P (X = k) = k k
k=0 k=0 k! k=0 (k − 1)!
+∞ λk−1 X λk−1
+∞
= λe −λ + λe −λ
X
(k − 1)
k=1 (k − 1)! k=1 (k − 1)!
2 −λ
+∞ λk−2
=λ e +λ
X
k=2 (k − 2)!
= λ2 + λ
30
3.3. Lois classiques et leurs moments
et donc
Var {X } = E X 2 − E [X ]2 = λ
£ ¤
31
Deuxième partie .
Probabilités continues
33
4. Probabilités et
variables aléatoires
continues
Objectifs:
Contents
4.1. Axiomatique des probabilités . . . . . . . . . . . . . . . . . . . . . 35
4.2. Variable aléatoires continues . . . . . . . . . . . . . . . . . . . . . 38
4.2.1. Variable absolument continue . . . . . . . . . . . . . . . . . 39
4.2.2. Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.3. Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.3. Lois continues classiques . . . . . . . . . . . . . . . . . . . . . . . 42
4.3.1. Loi uniforme sur un intervalle [a,b] . . . . . . . . . . . . . . 42
4.3.2. Loi exponentielle de paramètre λ . . . . . . . . . . . . . . . 43
4.3.3. Loi normale de moyenne µ et variance σ2 . . . . . . . . . . 44
4.4. Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . 44
35
4. Probabilités et variables aléatoires continues
Proposition 4.1
Toute intersection dénombrable d’éléments de A est encore dans A
Exemple 4.1
1. L’ensemble des parties de Ω est une tribu, c’est la plus grande. C’est celle
que nous avons toujours considéré de façon implicite dans le cas où Ω
est fini ou dénombrable.
2. {;, Ω} est une tribu, c’est la plus petite.
3. Si A ⊂ Ω, {;, A, A c , Ω} est une tribu. C’est la plus petite tribu contenant A.
On dit que c’est la tribu engendrée par A.
36
4.1. Axiomatique des probabilités
On peut vérifier que toutes les propriétés d’une probabilité vues dans le cas fini
ou dénombrable restent vraies dans le cadre d’un espace probabilisé général. On
peut aussi redéfinir dans ce cadre la notion d’évènements indépendants, de pro-
babilité conditionnelle etc.
Proposition 4.2 (Rappels de calcul de probabilité)
Soit (Ω, A , P ) un espace probabilisé, A, B ∈ A .
• P (;) = 0
• P (Ω) = 1
• P (A c ) = 1 − P (A)
• B ⊂ A ⇒ P (B ) ≤ P (A)
• B ⊂ A ⇒ P (A − B ) = P (A) − P (B )
• P (A ∪ B ) = P (A) + P (B ) − P (A ∩ B )
• Continuité croissante : si (A n )n∈N est une suite croissante d’évènements
(A n ⊂ A n+1 ), alors µ∞ ¶
[
P A n = lim P (A n )
n→∞
n=0
Tout comme dans le cas discret, on peut définir la notion de probabilité condi-
tionnelle.
P (B |A)P (A)
P (A|B ) =
P (B )
37
4. Probabilités et variables aléatoires continues
P (B i )P (A|B i )
P (B i |A) = P
P (B n )P (A|B n )
n∈N
P (A ∩ B ) = P (A)P (B )
38
4.2. Variable aléatoires continues
F X : R → [0, 1]
x 7→ P (X ≤ x)
Proposition 4.7
Soit X une variable aléatoire sur l’espace probabilisé (Ω, A , P ) et F X sa fonction
de répartition. Alors F X est une fonction croissante de R dans [0, 1], continue à
droite et telle que lim F X (x) = 0 et lim F X (x) = 1.
x→−∞ x→+∞
Proposition 4.8
La fonction de répartition de X détermine la loi de X .
39
4. Probabilités et variables aléatoires continues
Remarque 4.1
Il existe des variables aléatoires qui ne sont ni discrètes, ni à densité.
Proposition 4.9
. Soit X une variable aléatoire de densité f X . Alors
1. pour tout x ∈ R P (X = X ) = 0
Ry
2. pour tout x, y ∈ R tels que x ≤ y, P (X ∈ (x, y)) = x f X (t ) dt
3. f X (x) = F X0 (x)
Ainsi, quel que soit le type d’intervalle considéré (ouvert, fermé, semi-ouvert...)
on a
Z y
P (X ∈ (x, y)) = F X (y) − F X (x) = f X (t ) dt .
x
4.2.2. Indépendance
P ({X ∈ B } ∩ {Y ∈ C }) = P (X ∈ B )P (Y ∈ C )
Proposition 4.10
Soient X et Y deux variables aléatoires indépendantes, et soient f et g deux
fonctions continues. Alors les variables f (X ) et f (Y ) sont indépendantes.
40
4.2. Variable aléatoires continues
4.2.3. Moments
Définition 4.11 (Espérance)
Soit X une variable aléatoire de densité f X . Soit h une fonction continue. On
définit l’espérance de h(X ) par
Z +∞
E [h(X )] = h(t ) f X (t ) dt
−∞
Les propriétés de l’espérance vue dans le cas discret restent vrai dans le cas
continue, on en rappelle quelques unes
Avec Z µZ ¶2
Var {X } = E X 2 − E [X ]2 = t 2 f X (t ) dt −
£ ¤
t f (t ) dt
R R
41
4. Probabilités et variables aléatoires continues
4.3.1.2. Preuves
On vérifie qu’on a bien une densité de probabilité : f (x) ≥ 0∀x et
Z b
1 1
Z
f X (x) dx = dx = [x]b = 1
R a b − a b − a a
Calcul de la moyenne
b x 1 2 b
· ¸
1
Z Z
E [x] = x f (x) dx = dx = x
R a b−a b−a 2 a
2 2
b −a a +b
= =
2(b − a) 2
Calcul du moment d’ordre deux
b x2 1 3 b
· ¸
1
Z Z
E [x] = x 2 f (x) dx = dx = x
R a b−a b−a 3 a
3 3
b −a (b − a)(a 2 + b 2 + ab)
= =
2(b − a) 3(b − a)
a 2 + b 2 + ab
=
3
42
4.3. Lois continues classiques
donc
a 2 + b 2 + ab (a + b)2
Var {x} = E x 2 − E [x]2 =
£ ¤
−
3 4
a 2 + b 2 − 2ab (b − a)2
= =
12 12
4.3.2.2. Preuves
+∞ · ¸+∞
1
Z Z
f X (x) dx = e −λx dx = λ − e −λx =1
R 0 λ 0
Calcul de la moyenne
Z Z +∞
E [x] = x f (x) dx = xλe −λx dx
R 0
Ã" #+∞ Z !
xe −λx +∞ e −λx Z +∞
=λ − + dx = e −λx dx
λ 0 λ 0
0
−λx +∞
" #
e 1
= − =
λ λ
0
43
4. Probabilités et variables aléatoires continues
1 (x−µ)2
−
f X (x) = p e 2σ2
2πσ2
et pour variance
Var {X } = σ2
ϕX : R → C (4.1)
h i
t 7→ ϕ X (t ) = E e i t X (4.2)
ϕ X (t ) = P (X = k)e i t k
X
k∈N
P X = P Y ⇔ ϕ X = ϕY
44
4.4. Fonction caractéristique
∀t ∈ R|ϕx (t )| ≤ 1
∀t ∈ R ϕ X (−t ) = ϕ X (t )
1
Z
f X (x) = ϕ X (t )e −i t x dt p.p.
2π R
Thèorème 4.2
Soit X une variable aléatoire sur l’espace probabilisé (Ω, A , P ). Si X , de densité
f X , admet des moments jusqu’à l’ordre p ≥ 1, alors ϕ X est de classe C p au moins
et Z
ϕ(k)
X
(t ) = (i x)k e i t x f X (x) dx
R
De plus, on a h i
ϕ(k)
X
(0) = i k
E Xk .
(i t )2 (i t )p
ϕ X (t ) = 1 + i t m 1 +
m2 + . . . + m p + o(|t |p )
2 p!
45
4. Probabilités et variables aléatoires continues
Ce théorème est valable aussi bien dans le cas continue que dans le cas discret.
Pour le montrer, il faut admettre le résultat suivant
ie
P X +Y = P X ? P Y
ie
f X +Y = f X ? f Y
46
5. Vecteurs de variables
aléatoires
Objectifs:
Contents
5.1. Couple de variables aléatoires . . . . . . . . . . . . . . . . . . . . 47
5.1.1. Loi jointe, lois marginales . . . . . . . . . . . . . . . . . . . . 47
5.1.2. Variables aléatoires indépendantes . . . . . . . . . . . . . . 48
5.1.3. Moments d’un couple . . . . . . . . . . . . . . . . . . . . . . 49
5.1.4. Fonction caractéristique d’un couple . . . . . . . . . . . . . 51
5.2. Vecteur de variables aléatoires . . . . . . . . . . . . . . . . . . . . 52
47
5. Vecteurs de variables aléatoires
F (X ,Y ) (x, y) = P (X ≤ x, Y ≤ y)
avec évidemment
Z Z
f (X ,Y ) (x, y) ≥ 0 ∀x, y f (X ,Y ) (x, y) dx dy = 1
R R
48
5.1. Couple de variables aléatoires
f (X ,Y ) (x, y)
f X |Y (x) =
f Y (y)
49
5. Vecteurs de variables aléatoires
E [X Y ] = E [X ]E [Y ]
La notion de variance d’une variable aléatoire à été vue dans le cours précédent.
Lorsqu’on considère un couple de variable aléatoire, il faut introduire la notion de
covariance, afin de quantifier l’écart conjoint par rapport à leur espérance.
Cov [X , Y ] = E [X Y ] − E [X ]E [Y ]
50
5.1. Couple de variables aléatoires
Cov [X , Y ] = 0
Cov [X , Y ]
ρ= p
Var {X }Var {Y }
On a −1 ≤ ρ ≤ 1
Comme son nom l’indique, cette quantité mesure à quel point on peut établir une
relation linéaire entre les deux variables X et Y . Si ρ = 0 alors les variables ne sont
pas corrélée linéairement, mais ne sont pas indépendantes pour autant. Si |r ho| '
1, alors les variables sont très fortement corrélées linéairement, ie X ' aY + b,
a, b ∈ R, avec a > 0 si ρ ' 1 et a < 0 si ρ ' −1
51
5. Vecteurs de variables aléatoires
Proposition 5.3
Soit (X , Y ) un couple de variables aléatoire sur l’espace probabilisé (Ω, A , P ).
X et Y sont indépendantes ssi
f (X 1 ,...,X n ) (x 1 , . . . , x n ) ≥ 0∀(x 1 , . . . , x n )
et Z
f (X 1 ,...,X n ) (x 1 , . . . , x n ) dx 1 . . . dx n = 1
Rn
E [(X 1 , . . . , X n )] = (E [X 1 ], . . . , E [X n ])
52
5.2. Vecteur de variables aléatoires
ϕ X : Rn → C (5.1)
h i
i 〈u,X 〉
u 7→ X (u) = E e (5.2)
Proposition 5.4
Soit X = (X 1 , . . . , X n ) un vecteur de n variables aléatoires sur l’espace probabi-
lisé (Ω, A , P ) et ϕ X sa fonction caractéristique. Alors
1. ϕ X (0) = 1
2. kϕ X k ≤ 1
3. ϕ X est continue.
∂m h i
ϕ X (u) = i m E e i 〈u,X 〉 X 1 X 2 . . . X m
∂u i 1 ∂u i 2 . . . ∂u i m
53
5. Vecteurs de variables aléatoires
ϕ AX +a (u) = e i 〈a,u〉 ϕ X (A T u)
54
5.2. Vecteur de variables aléatoires
55
6. Suite de variables
aléatoires
Objectifs:
Contents
6.1. Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.2. Modes de convergence . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.2.1. Limite d’une suite de variable aléatoire . . . . . . . . . . . . 58
6.2.2. Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . 59
6.3. Loi des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . 60
6.4. Théorème de la limite centrale . . . . . . . . . . . . . . . . . . . . 61
6.1. Inégalités
Soit (Ω, A , P ) un espace probabilisé et soit X : Ω → R et Y : Ω → R deux va-
riables aléatoires.
Proposition 6.1
si E X 2 < +∞, alors
£ ¤
q £ ¤
|E [X ]| ≤ E [|X |] ≤ E X2
57
6. Suite de variables aléatoires
q £ ¤q £ ¤
|E [X Y ]| ≤ E X2 E Y 2
aP (|X | > a)
¢ Var {X }
∀a > 0 P (X − E [X ])2 > a ≤
¡
a2
On notera
X n −→ X
p.s.
58
6.2. Modes de convergence
On notera
X n −→ X
L1
On notera
X n −→ X
L2
On notera
X n −→ X
P
On peut aussi manipuler les images d’une suite de variable aléatoire par une
fonction continue.
Thèorème 6.1
Soit h : R → R une fonction continue. Alors
• X n −→ X ⇒ h(X n ) −→ h(X )
P P
• X n −→ X ⇒ h(X n ) −→ h(X )
p.s. p.s.
59
6. Suite de variables aléatoires
lim P X n = P X
n→∞
On notera
X n −→ X
L
Thèorème 6.2
Soit (X n )n∈N une suite de variables aléatoire admettant pour fonction de répar-
tition F X n . (X n )n∈N converge en loi vers X de fonction de répartition F X ssi
lim F X n = F
n→∞
X n −→ X ⇔ ∀t ∈ Rϕ X n (t ) → ϕ X (t )
L
X n −→ X ⇒ X n −→ X ⇒ X n −→ X ⇒ X n −→ X
L2 L1 P L
et
X n −→ X ⇒ X n −→ X ⇒ X n −→ X
p.s. P L
60
6.4. Théorème de la limite centrale
Démonstration. On a
"Ã !2 # " #
h
2
i 1X 1 XX
E (X n − m) =E (X i − m) =E 2 (X i − m)(X j − m)
n i n i j
1 XX £ ¤
= E (X i − m)(X j − m)
n2 i j
1 X £
E (X i − m)2 car les X i sont indépendantes
¤
=
n2 i
Var {X i }
= −→ 0
n
61
6. Suite de variables aléatoires
n X
X i
Zn = p
i =1 n
où les Yi sont des variables aléatoires centrées réduites (ie de moyenne de nulle et
de variance 1). Le X i étant i.i.d., les Yi sont aussi i.i.d. Ainsi, on a
n µ
t
¶ µ µ
t
¶¶
ϕ Zn (t ) = ϕY i p = ϕY i p
Y
i =1 n n
et donc
t2
lim ϕ Zn (t ) = e − 2
n→∞
qui est la fonction caractéristique d’une variable aléatoire normale centrée ré-
duite. Le théorème de continuité de Levy permet de conclure.
62