Cours Slides 2

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 15

STA401

Statistique et Calcul
des Probabilités

Responsable : Carole Durand-Desprez

CHAPITRE 2 : Lois continues


"autour de la loi Normale"
____________________________________
STA401 / Carole DURAND-DESPREZ

1. Lois continues - Généralités

X une variable aléatoire, W = I (intervalle de toutes les réalisations) continue

Les probabilités sont définies sur des intervalles par la fonction de répartition
aire sous la courbe de densité 𝑓.

𝑃 Ω =1
𝑥
𝐹 𝑥 =𝑃 𝑋≤𝑥 = 𝑓 𝑡 𝑑𝑡
−∞
𝑓 𝑥 = 𝐹′ 𝑥

𝑏
𝑃 𝑎≤𝑋≤𝑏 = 𝑓 𝑡 𝑑𝑡
𝑎
𝑃 𝑎 ≤𝑋 ≤𝑏 =𝑃 𝑋 ≤𝑏 −𝑃 𝑋 ≤𝑎
𝑃 𝑋 ≥𝑎 =1−𝑃 𝑋 ≤𝑎
____________________________________
STA401 / Carole DURAND-DESPREZ

𝐸 𝑋 =μ= 𝑥 𝑓 𝑥 𝑑𝑥
2
𝑉 𝑋 = σ2 = 𝐸 𝑋 − 𝐸 𝑋 = 𝐸 𝑋2 − 𝐸 𝑋 2

𝑉𝑋 = 𝑥−μ 2𝑓 𝑥 𝑑𝑥 = 𝑥 2 𝑓 𝑥 𝑑𝑥 − μ2

Propriétés : (identiques au cas discret)


𝐸 𝑎𝑋 + 𝑏𝑌 = 𝑎𝐸 𝑋 + 𝑏𝐸 𝑌
2
𝑉 𝑋 =𝐸 𝑋−𝐸 𝑋 = 𝐸 𝑋2 − 𝐸 𝑋 2

𝑉 𝑎𝑋 + 𝑏 = 𝑎2 𝑉 𝑋

𝐸 𝑋
Inégalité de Markov : X v.a. positive, pour tout a > 0 : 𝑃 𝑋≥𝑎 ≤
𝑎
∞ 𝑎 ∞ ∞

Dém : 𝐸 𝑋 = 𝑥 𝑓 𝑥 𝑑𝑥 = 𝑥 𝑓 𝑥 𝑑𝑥 + 𝑥 𝑓 𝑥 𝑑𝑥 ≥ 𝑥 𝑓 𝑥 𝑑𝑥
0 ∞ 0 𝑎 𝑎

𝐸 𝑋 ≥𝑎 𝑓 𝑥 𝑑𝑥 ≥ 𝑎𝑃 𝑋 ≥ 𝑎
𝑎

Inégalité de Bienaymé Tchebychev


𝑉 𝑋
Soit X v.a. positive, pour tout a > 0 : 𝑃 ∣𝑋−𝐸 𝑋 ∣≥𝑎 ≤
𝑎2
____________________________________
STA401 / Carole DURAND-DESPREZ

La loi Uniforme continue sur [ a ; b ] (vue au lycée)


1
Densité : 𝑓 𝑥 = 𝑠𝑖 𝑎 ≤ 𝑥 ≤ 𝑏 ; 𝑓 𝑥 = 0 𝑠𝑖𝑛𝑜𝑛
𝑏−𝑎

𝑎+𝑏 𝑏−𝑎 2
Espérance et variance : 𝐸𝑋 = 𝑉𝑋 =
2 12

La loi Exponentielle de paramètre l ( avec l > 0 ) :

Densité : 𝑓 𝑥 = λ𝑒 −λ𝑥 𝑠𝑖 𝑥 ≥ 0 ; 𝑓 𝑥 = 0 𝑠𝑖𝑛𝑜𝑛

1 1
Espérance : 𝐸𝑋 = Variance : 𝑉𝑋 = 2 ( 2 IPP )
λ λ
∞ t
t
Démo : 𝐸𝑋 = λ𝑥𝑒 −λ𝑥 𝑑𝑥 = lim −𝑥𝑒 −λ𝑥 0 + lim 𝑒 −λ𝑥 𝑑𝑥 𝐼𝑃𝑃
0 𝑡→∞ 𝑡→∞ 0
t 1 t 1
𝐸 𝑋 = lim −𝑥𝑒 −λ𝑥 − lim 𝑒 −λ𝑥 =
𝑡→∞ 0 λ 𝑡→∞ 0 λ

Propriété : 𝑃 𝑋 >𝑠+𝑡∣𝑋>𝑡 =𝑃 𝑋 >𝑠 (loi sans mémoire, sans vieillissement)


𝑃 𝑋 >𝑠+𝑡
Démo : 𝑃 𝑋 >𝑠+𝑡∣𝑋>𝑡 = ; 𝑑𝑒 𝑝𝑙𝑢𝑠 𝑃 𝑋 > 𝑠 + 𝑡 = 𝑒 −λ 𝑠+𝑡
𝑃 𝑋>𝑡
𝑒𝑡 𝑃 𝑋 > 𝑡 = 𝑒 −λ𝑡 . 𝑂𝑛 𝑒𝑛 𝑑é𝑑𝑢𝑖𝑡 𝑙′ é𝑔𝑎𝑙𝑖𝑡é 𝑣𝑜𝑢𝑙𝑢𝑒.
____________________________________
STA401 / Carole DURAND-DESPREZ

2. La loi Normale (Gauss) :

La loi Normale N( m ;s² ) :

1 𝑥−μ 2

Densité : 𝑓 𝑥 = 𝑒 2σ2
σ 2π

Espérance : 𝐸 𝑋 =μ

Variance : 𝑉 𝑋 = σ2

La loi Normale centrée réduite N( 0 ;1 ) :

1 −𝑥 2
Densité : 𝑓 𝑥 = 𝑒 2

Espérance : 𝐸 𝑋 =0

Variance : 𝑉 𝑋 =1
____________________________________
STA401 / Carole DURAND-DESPREZ

Lecture des tables statistiques (pas de calcul d'intégrales !) :

Loi de Gauss (Normale), Student, Khi-deux, Fisher ...

Notation importante :

𝑥𝑝 𝑞𝑢𝑎𝑛𝑡𝑖𝑙𝑒 𝑑 ′ 𝑜𝑟𝑑𝑟𝑒 𝑝 ∶ 𝐹 𝑥𝑝 = 𝑃 𝑋 ≤ 𝑥𝑝 = 𝑝

Convention – Notation :

Pour la loi Normale centrée-réduite, on notera 𝑢𝑝 le quantile d'ordre p


Pour la loi de Student, on notera 𝑡𝑝 le quantile d'ordre p
Pour la loi du Khi-deux, on notera 𝑧𝑝 le quantile d'ordre p
Pour la loi de Fisher, on notera 𝑓𝑝 le quantile d'ordre p
____________________________________
STA401 / Carole DURAND-DESPREZ

Propriétés :

Si X suit N(m;s²) et a un réel X+a suit N(m+a ; s²)

Si X suit N(m;s²) et a un réel aX suit N(am ; a²s²)

Si X suit N(m1 ;s1²) et Y suit N(m2 ;s2²) indépendantes X+Y suit N(m1 +m2 ; s1²+s2²)
X-Y suit N(m1 - m2 ; s1²+s2²)

Si Xi suit N(m;s²), i=1,...,n indépendantes X1+ ... + Xn suit N(nm ; ns²)

X1+...+Xn suit N(m ; s²/n)


n

Si X suit N(m;s²) Y = (X- m)/s suit N(0;1) [centrage-réduction]

Exemples :
Si X suit N(3;4) 2X-1 suit N(5 ; 16)

Si X suit N(3;4) et Y suit N(1;9) indépendantes (2X-Y) suit N(5 ; 25)


(2X-Y-5) / 5 suit N(0 ; 1)
____________________________________
STA401 / Carole DURAND-DESPREZ

Lecture de table de la loi Normale N(0;1) - Exemples :


Si X suit la loi Normale N(0;1) [loi tabulée] ….... Lecture directe :

P( X < 0,51) = p p = 0,695


P( X < u ) = 0,95 u = 1,6449
P( X > u ) = 0,2 alors P( X < u ) = 0,8 u = 0,8416

Lecture de table et centrage-réduction

Si X suit la loi N(m;s²) alors Y = (X- m)/s suit la loi N(0;1)

● P( X < a ) = p P( (X - m)/s < (a - m)/s ) = P( Y < (a - m)/s ) = p

lecture de up sur la table avec : up = (a - m)/s a = m + s up

● Si X suit la loi N(3 ;4) alors Y = (X- 3)/2 suit la loi N(0;1) :
Si P(X < 4) = p P( Y < (4 - 3)/2 ) = p P( Y < 1/2 ) = p p = 0,6915

Si P(X < a) = 0,9 P( Y < (a - 3)/2 ) = 0,9 P( Y < u ) = 0,9


lecture de u0,9 = 1,2816 = (a – 3)/2 a = m + s u = 3+2x1,2816 = 5,5632
____________________________________
STA401 / Carole DURAND-DESPREZ

3. Théorème Central Limite : (Tous les théorèmes de convergence seront vus en L3)

Théorème Central Limite :


𝑆𝑜𝑖𝑒𝑛𝑡 𝑋1 , . . . , 𝑋𝑛 𝑑𝑒𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑎𝑙é𝑎𝑡𝑜𝑖𝑟𝑒𝑠 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑒𝑠 𝑑𝑒 𝑚ê𝑚𝑒 𝑙𝑜𝑖, 𝑎𝑣𝑒𝑐

𝐸 𝑋𝑖 = μ 𝑒𝑡 𝑉 𝑋𝑖 = σ2 . 𝑆𝑜𝑖𝑡 𝑌 = 𝑋𝑖 𝑎𝑙𝑜𝑟𝑠, 𝑠𝑖 𝑛 𝑒𝑠𝑡 𝑔𝑟𝑎𝑛𝑑

𝑌 − 𝑛μ
𝑠𝑢𝑖𝑡 𝑙𝑎 𝑙𝑜𝑖 𝑁 0; 1 𝑜𝑢 𝑌 𝑠𝑢𝑖𝑡 𝑙𝑎 𝑙𝑜𝑖 𝑁 𝑛μ; 𝑛σ²
σ 𝑛

En pratique, on prendra : n>30

Cas particulier :
Approximation d'une loi Binomiale par une loi Gaussienne
Moivre-Laplace
Soient 𝑋𝑖 de loi B(p) indépendantes, alors m = p et s² = p(1-p)
On sait que 𝑌 = 𝑋𝑖 suit 𝐵 𝑛; 𝑝
𝑖
Si n est grand, alors 𝑌 suit approx. 𝑁 𝑛𝑝; 𝑛𝑝 1 − 𝑝

𝐵 𝑛; 𝑝 ≈ 𝑁 𝑛𝑝; 𝑛𝑝 1 − 𝑝

En pratique, on prendra : n>30, np>5, n(1-p)>5


____________________________________
STA401 / Carole DURAND-DESPREZ

Approximation d'une loi de Poisson par une loi Gaussienne


Soit Y une v.a. de loi P(l). Si l est grand, alors Y suit approx. 𝑁 λ; λ

𝑃 λ ≈ 𝑁 λ; λ En pratique, on prendra : l>25

Démo : Soit (Xi) un échantillon de taille n de loi P( l/n), alors Y= S Xi suit une loi P(l)
– cf chapitre pécédent -. De plus, E(Xi) = V(Xi) = l/n. D'après le TCL, Y suit une loi 𝑁 λ; λ

Exemple d'approximation :
Une certaine boîte mail affirme que la probabilité qu'un courriel soit classé en tant que 'spam'
alors qu'il ne l'est pas réellement est p=1%.
On prend un échantillon de 1000 mails. X suit la loi Binomiale (1000; 1%)

1000 1000
𝑃 𝑋 ≤ 15 = 0,010 0,99 1000 +. . . . . . . . . . . . . . . . . . . + 0,0115 0,99 985 =? ? ?
0 15

Approximation : n grand n > 30 ; np=10 > 5 ; n(1-p)=990 > 5


𝐵 𝑛; 𝑝 ≈ 𝑁 𝑛𝑝; 𝑛𝑝 1 − 𝑝 𝑖𝑐𝑖 𝐵 1000; 0,01 ≈ 𝑁 10; 9,9

𝑃 𝑋 ≤ 15 = 𝑃 𝑋 − 10 9,9 ≤ 15 − 10 9,9 = 𝑃 𝑌 ≤ 1,59 = 0,9441


Lecture N(0;1)
____________________________________
STA401 / Carole DURAND-DESPREZ

4. Intervalle de fluctuation de la proportion :

Soit p la probabilité de succès d'un évènement A. Soit un n-échantillon indépendant.


X : “ le nombre d'individus pour lequel l'évènement A a réussi “ , X suit la loi B(n,p)
La fréquence F=X/n représente la proportion (dans l'échantillon) de réussites de A.

But : Trouver un intervalle [ a ; b ] qui contient F avec une probabilité 1 - a :


F
𝑃 𝑎 ≤𝐹 ≤𝑏 =1−α [ ]
1-a
a b

Si n est grand, alors F suit approximativement une loi N(p, p(1-p)/n) – TCL (conditions).
𝑃 𝑎−𝑝 𝑝 1−𝑝 𝑛 ≤ 𝐹−𝑝 𝑝 1−𝑝 𝑛 ≤ 𝑏−𝑝 𝑝 1−𝑝 𝑛 = 1−α

−𝑢1−α 2 𝑢1−α 2

𝑎; 𝑏 = 𝑝 − 𝑢1−α 2 𝑝 1 − 𝑝 𝑛 ; 𝑝 + 𝑢1−α 2 𝑝 1−𝑝 𝑛


____________________________________
STA401 / Carole DURAND-DESPREZ

Bon échantillonnage : si 𝐹 𝑒𝑠𝑡 𝑠𝑢𝑓𝑓𝑖𝑠𝑎𝑚𝑚𝑒𝑛𝑡 𝑝𝑟𝑜𝑐ℎ𝑒 𝑑𝑒 𝑝


si 𝐹 ∈ 𝑎; 𝑏
si 𝑋 ∈ 𝑛𝑎; 𝑛𝑏

Exemple :

Dans une boîte mail un courriel a une probabilité de1% d'être classé comme un spam à tort. On
prend un échantillon de taille 1000 mails. Soit X le nombre de mails classés „spam“ à tort. On repère
14 mails mal classés dans cet échantillon.
L'échantillon est-il ' bon', 'conforme' ? L'échantillon est-il “représentatif de la population totale“ ?

On cherche à savoir si le nombre de mails mal classés X est cohérent, donc si la fréquence F est
bien dans l'intervalle de fluctuation à 95% :

𝐼 = 0,01 − 1,96 ∗ 0,0031464; 0,01 + 1,96 ∗ 0,0031464 = 0,00383; 0,01617

Pour 14 mails mal classés dans l'échantillon, on a F= 0,014. On remarque que F est bien dans
l'intervalle I. Ou bien : 14 ∈ 3,83; 16,17

L'échantillon est donc représentatif (ou conforme).


____________________________________
STA401 / Carole DURAND-DESPREZ

Intervalle de fluctuation de la moyenne :

Soit X une variable de loi N(m;s²). Soit un n-échantillon indépendant.


La moyenne empirique 𝑋 suit la loi N(m;s²/n). (m et s connus)

But : Trouver un intervalle [ a ; b ] qui contient 𝑋 avec une probabilité 1 - a :

𝑋
𝑃 𝑎 ≤ 𝑋 ≤𝑏 = 1−α [ 1-a
]
a b

𝑋−μ
Raisonnement analogue à l'intervalle de fluctuation de la proportion : suit
une loi N(0;1). Donc, σ 𝑛

𝑎−μ 𝑋−μ 𝑏−μ


𝑃 ≤ ≤ =1−α
σ 𝑛 σ 𝑛 σ 𝑛

−𝑢1−α 2 𝑢1−α 2
Idem pour l'intervalle de
fluctuation asymptotique
σ σ - n grand - dans le cas où
𝑎; 𝑏 = μ − 𝑢1−α 2 ; μ + 𝑢1−α 2 X ne serait pas Gaussienne
𝑛 𝑛
(à faire en exo)
____________________________________
STA401 / Carole DURAND-DESPREZ

Exemple :

Le temps de compilation d'une page de codes avec la version 1 d'un logiciel était en moyenne de 0,2
seconde avec un écart type de 0,09 seconde. On suppose que ce temps suit une loi Normale.
On s'intéresse à la version 2 du même logiciel. On prend un échantillon de 150 pages, la moyenne
de compilation est de 0,18. Calculer l'intervalle de fluctuation de la moyenne à un niveau de confiance
de 0,98, puis conclure si le temps de compilation moyen a varié entre les deux versions.

Dans la version 1, les paramètres sont connus. On cherche à savoir si cette nouvelle version est
'conforme' ou pas à l'ancienne.
Intervalle de fluctuation à 98% de la moyenne :

𝐼 = 0,2 − 2,3263 ∗ 0,09 150 ; 0,2 + 2,3263 ∗ 0,09 150 = 0,183; 0,217

On remarque que la moyenne 𝑥 = 0,18 n'est pas dans l'intervalle I, par valeur inférieure.
On conclut que le temps moyen de compilation a varié depuis l'ancienne version, il a diminué avec
un niveau de confiance de 98%.
____________________________________
STA401 / Carole DURAND-DESPREZ

5. Quelques autres lois usuelles (liens avec la loi normale) :

● Soient X1, …, Xn n variables indépendantes de loi 𝑁 0; 1 :

𝑍= 𝑋𝑖2 𝑠𝑢𝑖𝑡 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑢 𝐾ℎ𝑖 − 𝑑𝑒𝑢𝑥 ℵ2𝑛

● Soient X et Y deux variables indépendantes, avec


X suit une loi 𝑁 0; 1 et Y suit une loi ℵ2𝑛 :

𝑋
𝑇= 𝑠𝑢𝑖𝑡 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑆𝑡𝑢𝑑𝑒𝑛𝑡 𝑇 𝑛
𝑌 𝑛

● Soient X et Y deux variables indépendantes de deux lois


du Khi-deux à n et p degrés de liberté :

𝑋 𝑛
𝐹= 𝑠𝑢𝑖𝑡 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝐹𝑖𝑠ℎ𝑒𝑟 𝐹 𝑛;𝑝
𝑌 𝑝

Vous aimerez peut-être aussi