ResumeVAetLois 10

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 2

SVTE 101 - 2010/2011 - Feuille 9 Ch.

Menini

Résumé sur les Variables aléatoires, lois usuelles et théorèmes de convergence.


Dans tout ce qui suit nous nous placerons dans l’espace probabilisé (Ω, P ).

Variables aléatoires : généralités.


Une variable aléatoire, X, est une application de Ω dans R. On utilisera l’abréviation V.A..
def
E une partie de R, (X ∈ E) = X −1 (E) = {ω ∈ Ω|X(ω) ∈ E} est l’image réciproque de E par l’application X.
La loi de probabilité (ou loi) de X est l’application PX définie sur les parties E de R par PX (E) = P(X ∈ E).
La loi de probabilité de X est une probabilité sur R.
La fonction de répartition FX de la V.A. X (ou de la loi PX ) est la fonction définie sur R par
FX (x) = PX (] − ∞, x]) = P (X ≤ x).
Elle est à valeurs dans [0, 1] ; limx→−∞ FX (x) = 0 et limx→+∞ FX (x) = 1.
Deux V.A. X et Y sont dites indépendantes si pour toutes parties E et F de R :
P ((X ∈ E) ∩ (Y ∈ F )) = P (X ∈ E)P (Y ∈ F ).

Variables aléatoires discrètes.


On dit qu’une V.A. est discrète si X(Ω) est fini ou dénombrable. On notera X(Ω) = {x1 , x2 , . . .}.
Dans le cas de V.A. discrètes
– La loi de probabilité d’une V.A. discrète X est donnée par pi = P (X = xi ) pour tous les xi de X(Ω).
– La fonction de répartition d’une V.A. discrète X est une fonction en escaliers et PX (xi ) = FX (xi ) − FX (xi−1 ).
– Deux V.A. discrètes X et Y prenant respectivement pour valeurs X(Ω) = {x1 , x2 , . . .} et Y (Ω) = {y1 , y2 , . . .}
sont indépendantes ssi P ((X = xi ) ∩ (Y = yj )) = P (X = xi )P (Y = yj ) pour tous xi et yj .

Variables aléatoires à densité.


On dit qu’une V.A. est à densité s’il existe une fonction continue sur R, f , sauf peut-être en un nombre fini de
Rb
points, telle que P (a ≤ X ≤ b) = a f (t) dt pour tous réels a ≤ b. La fonction f est appelée densité de la loi de X.
R +∞
Une densité est une fonction positive, continue sauf peut-être en un nombre fini de points, telle que −∞ f (t) dt = 1.
Dans le cas de V.A. à densité
– P (X = a) = 0.
– La fonction de répartition d’une V.A. à densité est continue et
Rb
FX (b) − FX (a) = a f (t) dt = P (a < X ≤ b) = P (a < X < b) = P (a ≤ X < b) = P (a ≤ X ≤ b).
0
– En tout point x0 où la densité f est continue, la fonction de répartition FX est dérivable et FX (x0 ) = f (x0 ).
– Deux V.A. à densité X et Y sont indépendantes ssi pour tous réels x et y
P ((X ≤ x) ∩ (Y ≤ y)) = P (X ≤ x)P (Y ≤ y).

Paramètres de position et dispersion.


Espérance pour une V.A. discrète.
Si X(Ω) = {x1 , x2 , . . .} alors l’espérance de X est définie par
E(X) = x1 P (X = x1 ) + x2 P (X = x2 ) + · · · + xn P (X = xn ) + · · ·
Si φ est une application de R dans R alors E(φ(X)) = φ(x1 )P (X = x1 ) + φ(x2 )P (X = x2 ) + · · · + φ(xn )P (X =
xn ) + · · · . Ces sommes sont finies si X(Ω) est fini.
Espérance pour une V.A. à densité.
Si X a pour densité f alors l’espérance de X est définie par
Z +∞
E(X) = tf (t) dt.
−∞
R +∞
Si φ est une application de R dans R alors E(φ(X)) = −∞
φ(t)f (t) dt.
Variance d’une V.A..
La variance de X (paramètre de dispersion) est définie par
V (X) = E (X − E(X))2 .


1
Pour les calculs on utilise plutôt
p la propriété V (X) = E(X 2 ) − E(X)2 .
L’écart-type est σ(X) = V (X).
Propriétés de l’espérance et de la variance.
E(aX + b) = aE(X) + b et V (aX + b) = a2 V (X) ∀a, b ∈ R.
Pour toutes V.A. X et Y , E(X + Y ) = E(X) + E(Y ).
Pour deux V.A. indépendantes X et Y , E(XY ) = E(X)E(Y ) et V (X + Y ) = V (X) + V (Y ).

Lois usuelles.
Loi de Bernouilli notée B(p).
Elle modélise les expériences avec seulement deux issues possibles : réussite ou échec.
X(Ω) = {0, 1}, P (X = 1) = p, P (X = 0) = q = 1 − p. E(X) = p ; V (X) = p(1 − p).
Loi de Binomiale notée B(n, p).
Elle modélise les expériences où l’on répète n fois de façons indépendantes une épreuve de Bernouilli et on compte le
nombre de réussites.
X(Ω) = {0, 1, . . . , n}, P (X = k) = nk pk (1 − p)n−k pour 0 ≤ k ≤ n. E(X) = np ; V (X) = np(1 − p).


Loi de Poisson notée P(λ).


C’est la loi du nombre d’événements survenant pendant une durée donnée, les temps d’attente entre deux événements
étant indépendants entre-eux et ne dépendent pas de l’instant où l’on se trouve (la loi du temps d’attente est une loi
sans mémoire).
k
X(Ω) = N, P (X = k) = λk! e−λ pour tout entier k. E(X) = λ ; V (X) = λ.
Loi uniforme sur [a, b].
1 (b−a)2
X(Ω) = [a, b], densité : f (t) = b−a 1[a,b] (t). E(X) = b+a 2 ; V (X) = 12 .
Loi exponentielle notée E(λ).
C’est la loi d’une V.A. à valeurs positives et “sans mémoire”. Loi de temps d’attente ou encore de durée de vie.
X(Ω) = R+ , densité : f (t) = 1[0,+∞[ (t)λe−λt (λ > 0). E(X) = λ1 ; V (X) = λ12 .
Loi normale notée N (m, σ 2 ).
(t−m)2
X(Ω) = R, densité : f (t) = σ√12π e 2σ2 . E(X) = m ; V (X) = σ 2 .
Si X suit une loi N (m, σ 2 ) alors aX + b suit une loi N (am + b, a2 σ 2 ).
Cas particulier fondamental : si X suit une loi N (m, σ 2 ) alors X−m σ suit une loi N (0, 1) dite loi normale centrée
réduite. Pour les calculs on se ramène toujours à la loi normale centrée réduite.
On note F la fonction de répartition de la loi N (0, 1), quelques astuces de calculs
F (0) = 0.5.
F (a) = P (X ≤ a) = P (X ≥ −a) = 1 − F (−a).
Si a ≤ 0 ≤ b alors P (a ≤ X ≤ b) = F (b) + F (−a) − 1, etc.
Somme de variables aléatoires indépendantes et suivant une loi normale : si X et Y sont deux V.A. indépendantes
de lois respectives N (m, σ 2 ) et N (m0 , σ 02 ) alors X + Y est de loi N (m + m0 , σ 2 + σ 02 ).

Théorème limite central.


Si X1 , X2 , . . . , Xn sont des variables aléatoires indépendantes, identiquement distribuées d’espérance m et de variance
σ 2 alors pour tous réels a < b et n grand
 X1 + X2 + · · · + Xn − nm 
P a< √ < b ' P (a < N < b)
σ n
où N est une variable aléatoire qui suit une loi N (0, 1).
En particulier pour n grand, p et 1 − p pas trop petits, on peut approcher une loi binomiale B(n, p) par une loi
normale N (nm, np(1 − p)).

Vous aimerez peut-être aussi