Recueil Corrige
Recueil Corrige
Recueil Corrige
Exercices corrigés de TD
Feuille de TD 1
Dénombrement
Exercice 1
Trois cartes sont tirées d'un jeu de 52 cartes. Calculer les probabilités des événements
suivants :
(i) Trois piques (ii) Aucun pique (iii) Un pique et deux "non-piques"
(iv) Au moins un pique (v) Trois cartes de la même famille (vi) Trois cartes de familles
diérentes
(vii) Trois as (viii) Aucun as (ix) Trois cartes rouges
lorsque :
1. On suppose que les cartes sont, l'une après l'autre, tirées au hasard et remises dans le
jeu.
2. On suppose que les cartes sont tirées simultanément au hasard.
∀ x ∈ R, FX (x) = P(X ≤ x)
Exercice 5 Soit X une variable aléatoire à valeurs dans N dénie sur l'espace de proba-
bilité discret (Ω, P). On dénit sa fonction génératrice par
X
GX (s) = E(sX ) = P(X = k)sk .
k∈N
Exercice 1 On peut décider qu'un jeu de cartes est l'ensemble {1, . . . , 52} avec par
exemple {1, . . . , 13} les piques, puis les trèes, puis les coeurs, puis les carreaux.
1. L'univers Ω est {1, . . . , 52}3 donc card(Ω) = 523 .
Comme les tirages sont faits au hasard, on peut munir Ω de la probabilité uniforme : tous
3
les événements élémentaires E ont la même probabilité : 1/52 . Plus généralement, on
sait que la probabilité d'un événement A quelconque se calcule comme card(A)/card(Ω).
3
(i) 1/64 car à chaque fois un pique soit 13 cas favorables
3
(ii) 27/64 car il s'agit de faire cette expérience sur 52 − 13 = 39 cartes, autrement dit, 39
cas favorables
(iii) 27/64 car on a 3 × 13 × 392 cas favorables
(iv) 37/64 complémentaire de (ii)
3
(v) 1/16 car 3 × 13 cas favorables
(vi) 3/8 car 52 × 39 × 26 cas favorables
3
(vii) 1/2197 car 4 cas favorables
3
(viii) 1728/2197 car 48 cas favorables
3
(ix) 1/8 car 26 cas favorables
2. Dans cette expérience, Ω est l'ensemble des combinaisons de 3 éléments parmi 52.
3
Son cardinal vaut donc C52 . Comme les tirages sont faits au hasard, on peut munir Ω de
la probabilité uniforme : tous les événements élémentaires E ont la même probabilité :
3
1/C52 . Plus généralement, on sait que la probabilité d'un événement A quelconque se
calcule comme card(A)/card(Ω).
3 3 3 3 1 2 3 3 3 3 3
(i) C13 /C52 (ii) C39 /C52 (iii) C13 C39 /C52 (iv) 1 − C39 /C52 (v) 4C13 /C52
1 3 3 3 3 3 3 3
(vi) 4(C13 ) C52 (vii) 4/C52 (viii) C48 /C52 (ix) C26 /C52
Exercice 2 1. On peut modéliser les n boîtes aux lettres à l'aide de n−1 séparateurs
donc une conguration est un ensemble de n − 1 + p éléments qui est déterminée par
n−1
exemple par la position des séparateurs, soit en tout Cn+p−1 possibilités.
2. On peut voir ce problème comme le nombre de répartitions de p enveloppes dans n
boîtes aux lettres avec xi le nombre d'enveloppes dans la boîte aux lettres i. On a bien
n−1
xi ∈ N et x1 + . . . + xn = p. Donc Card(A) = Cn−1+p .
3. On commence par mettre une enveloppe par boîte aux lettres. Il s'agit alors de calculer
n−1
le nombre de façons de répartir p − n enveloppes dans n boîtes aux lettres soit Cp−1
possibilités.
4. E2 = {(x1 , . . . , xn ) ∈ (N? )n , x1 + . . . + xn = p}.
5. p
Pour chaque enveloppe on attribue une boîte aux lettres, soit n possibilités.
Exercice 4 1. FX est croissante puisque si x < y , FX (y) = FX (x) + µX (]x, y]) ≥ FX (x).
limn→+∞ ] − ∞, −n] = ∩n∈N ] − ∞, −n] = ∅ comme limite d'une suite décroissante d'en-
sembles et limn→+∞ ] − ∞, n] = ∩n∈N ] − ∞, n] = R comme limite d'une suite croissante
d'ensembles Par continuité de l'application probabilité, on a limn→−∞ FX (n) = P(∅) = 0
et limn→∞ FX (n) = P(R) = 1.
2. FX est continue à droite car limn→∞ ] − ∞, x + 1/n] = ∩n∈dN ] − ∞, x + 1/n] =] − ∞, x].
De plus, limn→∞ ] − ∞, x − 1/n] = ∩n∈dN ] − ∞, x − 1/n] =] − ∞, x[.
3. On a FX (x) − FX (x− ) = µX ({x}). En particulier, on retrouve toutes les probabilités
µX ({k}) = P(X = k) = P(X −1 ({k})) = P({ω, X(ω) = k}).
Exercice 5 1. = n)sn est absolument convergente pour |s| ≤ 1 car
P
La série P(X
|P(X = n)sn | ≤ P(X = n) et
P
P(X = n) = 1. La fonction est bien dénie sur [−1, 1].
2. GX est la somme de la série entière de terme général P(X = n)sn . Elle est donc
indéniment dérivable sur ] − 1, 1[. De plus, on sait que ses dérivées s'obtiennent par
(k) P∞
dérivation terme à terme de la série. On a donc GX (s) = n=k n(n − 1) . . . (n − k +
n−k (k)
1)P (X = n)s et GX (0) = k!P(X = k). On peut donc reconstruire la loi de X à l'aide
(k)
de la formule suivante : P(X = k) = GX (0)/k!.
3.
P
Si X est intégrable, par dénition la série nP (X = n) est convergente. La série
n−1 n−1
P
nP (X = n)s est normalement convergente pour |s| ≤ 1 car sups |nP (X = n)s |=
P
nP (X = n). Par conséquent, sa somme est la dérivée de laP somme de la série P(X =
n)sn = GX (s), autrement dit G0X (s). En résumé G0X (s) = ∞ n=1 nP (X = n)s
n−1
et GX
0
Feuille de TD 2
Exercice 2
1. Rappeler la formule du binôme de Newton.
2. En déduire que la loi binomiale de paramètres n ∈ N? et p ∈ [0, 1] dénit bien une loi
de probabilité puis calculer sa moyenne et sa variance.
3. n
nan−1 n(n − 1)an−2
P P P
Rappeler le comportement des séries n≥0 a , n≥1 et n≥2
lorsque |a| < 1.
4. En déduire que la loi géométrique de paramètre p ∈ ]0, 1[ dénit bien une loi de pro-
babilité puis calculer sa moyenne et sa variance.
Exercice 3 Au cours d'une expérience un certain événement E se réalise avec une pro-
babilité p ∈ ]0, 1[.On répète de façon indépendante l'expérience jusqu'à obtenir r fois E .
c
Soit X la variable aléatoire associée au nombre de réalisations de E . Déterminer la loi
de X.
Exercice 4 Calculer la fonction génératrice deX lorsque X est une variable aléatoire
1. de loi de Bernoulli de paramètre p ∈ [0, 1] ;
2. ?
de loi binomiale de paramètres n ∈ N et p ∈ [0, 1] ;
3. de loi de Poisson de paramètre λ > 0 ;
4. de loi géométrique de paramètre p ∈ ]0, 1[.
5. En déduire l'espérance et la variance de X dans chacun des cas.
Inégalités
Exercice 5
1. Soit X une variable aléatoire intégrable. Montrer que pour tout a ∈ R+
?
E(|X|)
(Markov) P(|X| ≥ a) ≤ .
a
2. En déduire que si X est de carré intégrable alors pour tout a ∈ R+
?
V ar(X)
(Tchebyche ) P(|X − E(X)| ≥ a) ≤ .
a2
Exercice 6 Soit n ∈ N∗ . On extrait n fois avec remise une boule dans une urne composée
de 2 boules vertes et 6 boules blanches. Soit Xn la variable aléatoire associée au nombre
de boules vertes obtenues lors des n tirages. On pose Fn = Xn /n.
1. Donner la loi de Xn . En déduire l'espérance et la variance de Xn puis de Fn .
2. On suppose dans cette question que n = 10 000. A l'aide de l'exercice précédent, don-
ner une borne inférieure pour la probabilité de l'événement {Fn ∈ ]0.22, 0.26[}.
3. Donner une estimation du nombre minimal n de tirages nécessaires pour que la pro-
babilité de l'événement {Fn ∈ ]0.22, 0.26[} soit au moins 0.99.
Correction feuille de TD 2
n
X n
X n−1
X
E(X) = kCnk pk (1 − p)n−k =n k−1 k
Cn−1 p (1 − p)n−k = np k
Cn−1 pk (1 − p)n−1−k = np
k=1 k=1 k=0
n
X n
X
E(X(X − 1)) = k(k − 1)Cnk pk (1 − p)n−k = k−2 k
n(n − 1)Cn−2 p (1 − p)n−k = n(n − 1)p2 ,
k=2 k=2
np(1 − p).
1 − an+1
3. Si a 6= 1 on a, pour tout n, nk=0 ak = n+1
P
. Pour |a| < 1, limn a = 0,
1−a
P k 1
donc la série géométrique est alors convergente avec k≥0 a = . Par propriété de
1−a
dérivation des séries entières dans leur intervalle ouvert de convergence, on en déduit
d2
P k−1 d 1 1 P k−2 1 2
k≥1 ka = = 2
et k≥2 k(k − 1)a = 2 = 3
.
da 1 − a (1 − a) da 1 − a (1 − a)
4. Si pour tout k ≥ 1 on a P(X = k) = p(1 − p)k−1 , alors k≥1 P(X = k) = p k≥0 (1 −
P P
p)k = 1. Ceci montre que la loi géométrique de paramètre p est bien une loi de probabilités.
On calcule :
X X 1
E(X) = kP(X = k) = p k(1 − p)k−1 =
k≥1 k≥1
p
X X 1−p
E(X(X − 1)) = k(k − 1)P(X = k) = p(1 − p) k(k − 1)(1 − p)k−2 = 2
k≥2 k≥2
p2
1−p 1 1 1−p
Var(X) = E(X(X − 1)) + E(X) − E(X)2 = 2 2
+ − 2 = .
p p p p2
Exercice 3 On a Ω = {E, E c }N . L'événement {E, . . . , E, E c , . . . , E c , . . .} où E apparait
r fois et E c apparait n fois dans les r + n premiers termes a une probabilité pr (1 − p)n .
Pour trouver la probabilité P(X = n) il faut calculer le nombre de manières de construire
des r + n uplets se terminant par E , et contenant r fois E . C'est donc le nombre de
combinaisons de r−1 éléments parmi r+n−1 puisque un des éléments ainsi que sa position
r−1 r−1 r n
est imposée, soit encore Cr+n−1 . Donc pour tout n ∈ N on a : P(X = n) = Cn+r−1 p (1−p) .
?
Il s'agit de la loi binomiale négative de paramètres r ∈ N et p ∈]0, 1].
donc G0X (s) = p et G00X (s) = 0. Il suit G0X (1) = p et G00X (1) = 0. Par conséquent (cf. feuille
2
1, exercice 5 et remarque à la n du corrigé), E(X) = p et Var(X) = p − p = p(1 − p).
2. Loi binomiale de paramètres n et p. Pour s ∈ R, la formule du binôme donne :
n
X n
X
k
GX (s) = s Cnk pk (1 − p) n−k
= Cnk (sp)k (1 − p)n−k = (1 − p + sp)n .
k=0 k=0
0
On obtient GX (s) = np(1 − p + sp)n−1 et G00X (s) = n(n − 1)p2 (1 − p + sp)n−2 , d'où
GX (1) = np et G00X (1)
0
= n(n − 1)p2 .
λn −λ
3. Loi de Poisson de paramètre λ > 0. Rappelons que dans ce cas P(X = n) = e
∞ λn
n!
λ
P
pour n ∈ N. Le développement en série de l'exponentielle e = n=0 n! (et le fait que
n
λ −λ
n!
e ≥ 0) montre qu'il s'agit bien d'une probabilité. Ce même développement fournit,
pour tout s ∈ R :
∞
X λn
GX (s) = sn e−λ = eλs e−λ = eλ(s−1) ,
n=0
n!
donc G0X (s) = λeλ(s−1) et G00X (s) = λ2 eλ(s−1) . G0X (1) = λ et G00X (1) = λ2 impliquent
E(X) = λ et Var(X) = λ.
1 1
4. Loi géométrique de paramètre p. On a, pour tout s ∈] − , [,
1−p 1−p
∞
X sp
GX (s) = sk (1 − p)k−1 p = .
k=1
1 − s(1 − p)
p 2p(1 − p)
Pour ces valeurs de s, on en déduit que G0X (s) = et G00X (s) = .
(1 − s(1 − p))2 (1 − s(1 − p))3
2(1 − p) 2(1 − p)
En particulier, G0X (1) = 1
p
et G00X (1) = , d'où E(X) = 1
p
et Var(X) = +
2 p2 p2
1 1 1−p
− = .
p p p2
Remarque 1. Pour déduire le calcul de l'espérance et de la variance, on utilise à vrai
dire une réciproque G0X (1) < ∞
partielle de la question 5.3 de la feuille 1. À savoir : si
(c'est-à-dire, si la série dérivée converge en s = 1), alors X est intégrable, et E(X) =
G0X (1). Et si G00X (1) < ∞ (idem pour la série dérivée seconde), alors X est de carré in-
2 00 0
tégrable et E(X ) = E(X(X − 1)) + E(X) = GX (1) + GX (1). La preuve est quasiment
0
la même puisque par exemple les propriétés X est intégrable et GX (1)
P < ∞ se tra-
duisent exactement par la même condition de convergence : k kP(X = k) < ∞.
Remarque 2. Dès que le rayon de convergence de GX est strictement plus grand que
∞
1 (ce qui est le cas dans les exemples précédents), GX est de classe C en 1, donc X est
2 k
intégrable, X aussi et, de façon plus générale, X est intégrable pour tout k (considérer
la dérivée k -ième de GX ).
Feuille de TD 3
∞
X
E[X] = P(X ≥ n).
n=1
Indépendance
Exercice 7 Soit X, Y des variables aléatoires indépendantes suivant des lois géométriques
de paramètres respectifs pX et pY . On dénit Z = min(X, Y ).
1. Calculer les fonctions de répartition de X, Y , Z.
2. En déduire la loi de Z.
Conditionnement
P(A|Hi )P(Hi )
P(Hi |A) = Pn .
j=1 P(A|Hj )P(Hj )
2. Une maladie M aecte une personne sur 1000 dans une population donnée. On dispose
d'un test sanguin qui détecte M avec une abilité de 99% lorsque cette maladie est eec-
tivement présente. Cependant, on obtient aussi un résultat faussement positif pour 0,2%
des personnes saines testées. Quelle est la probabilité qu'une personne soit réellement
malade lorsque son test est positif ?
Exercice 9
Soient X1 et X2 des variables aléatoires, indépendantes, de loi de Poisson de paramètres
λ1 etλ2 respectivement.
1. Calculer la loi de X1 + X2 .
2. Calculer la loi conditionnelle de X1 sachant X1 + X2 . Identier une loi connue.
Correction de la feuille de TD 3
d'où par théorème de convergence dominée (les sommes partielles sont inférieures à X,
intégrable) (ou convergence monotone) :
∞
X ∞
X
E[X] = E[1{X≥k} ] = P(X ≥ k).
k=1 k=1
Indépendance
P(Ac1 ∩ Ai1 ∩ · · · ∩ Aik ) = P(Ai1 ∩ · · · ∩ Aik ) − P(A1 ∩ Ai1 ∩ · · · ∩ Aik ) = (1 − P(A1 ))P(Ai2 ) · · · P(Ain )
= P(Ac1 )P(Ai2 ) · · · P(Aik )
Exercice 4
1. On a, pour a, b ∈ R (ou ∈ f (X(Ω)) et g(Y (Ω)) :
P(f (X) = a, g(Y ) = b) = P(X ∈ f −1 (a), Y ∈ g −1 (b)) = P(X ∈ f −1 (a))P(Y ∈ g −1 (b)) = P(f (X) = a)P(g
X X
E[|XY |] = |kl|P(X = k, Y = l) = |kl|P(X = k)P(Y = l)
k∈X(Ω),l∈Y (Ω) k∈X(Ω),l∈Y (Ω)
X X
= |k|P(X = k) |l|P(Y = l) = E[|X|]E[|Y |] < ∞
k∈X(Ω) l∈Y (Ω)
donc XY est intégrable, et en refaisant le calcul sans les valeurs absolues (justié par
Fubini), on trouve E[XY ] = E[X]E[Y ].
3. On a :
Var(X+Y ) = E[(X+Y )2 ]−E[X+Y ]2 = E[X 2 +Y 2 +XY ]−(E[X]+E[Y ])2 = E[X 2 ]−E[X]2 +E[Y 2 ]−E[Y ]2
2. Ici, Ω est la population considérée, dont une partie E est atteinte par la maladie M,
et dont une partie T a une réaction positive au test. Par hypothèse, P(E) = 1/1000,
P(T |E) = 0, 99 et P(T |E c ) = 0, 002, d'où (cas particulier de la formule de Bayes pour la
c
partition de Ω en E et E ) :
Ainsi, le test a deux chances sur trois de donner une réponse positive à une personne
saine, ce qui est loin d'être négligeable !
Exercice 9
1. Si X (resp. Y) suit la loi de Poisson de paramètre λ1 (resp. λ2 ), alors :
GX+Y (s) = GX (s)GY (s) = eλ1 (1−s) eλ2 (1−s) = e(λ1 +λ2 )(1−s) ,
Feuille de TD 4
où les deux membres sont nis ou innis. On pourra donner une preuve dans le cas à
densité (à l'aide de ce qui précède), et une preuve dans le cas général (dans l'esprit de la
question 1.3 de la feuille 3).
Pn
soit : µX+Y ({n}) = k=1 µX ({k})µY ({n − k}).
2. On reconnaît dans la formule précédente l'expression des coecients de la série en-
tière produit deGX et GY . Comme ces deux séries entières convergent sur [−1, 1], on
a donc, pour tout s ∈ [−1, 1], GX+Y (s) = GX (s)GY (s). Autre méthode : X et Y sont
X Y
indépendantes, donc s et s aussi, et celles-ci sont intégrables pour s ∈ [−1, 1], d'où :
2. Supposons que l'on ait GX1 GX2 = GX (donné ci-dessus). Remarquons que, pour i=
1, 2,
6
X
GXi (s) = P(Xi = j)sj = sϕi (s),
j=1
1 − s11
11sϕ1 (s)ϕ2 (s) = ,
1−s
et le polynôme du membre de droite a pour racines les racines onzièmes de l'unité autres
que 1, dont aucune n'est réelle : contradiction.
3. Tant que les dés sont indépendants, on ne peut donc les piper (i.e. modier leur loi)
de façon à rendre toutes les sommes entre 2 et 12 équiprobables.
Exerciceα 4
1. a|x|
π(a2 +x2 )
est intégrable ssi α − 2 < −1, i.e. α < 1.
1 1 2
2.
R0 R∞
e−|t| eiξt dt = −∞ e−t(1+iξ) dt + 0 e−t(1+iξ) dt =
R
+ = .
1 − iξ 1 + iξ 1 + ξ2
3. On déduit de la question précédente et de la transformée de fourier inverse que
−|t| 1 R 2
e = 2
eiξt dξ . En particulier, la fonction caractéristique de Y une variable
2π 1 + ξ
de loi de cauchy de paramètre 1 est e−|t| .
De plus, il faut noter que si X est de loi cauchy de paramètre a alors Y = X/a est de loi
cauchy de paramètre 1.
R ax a
Rx a
Rx 1
En eet, P(X/a ≤ x) = P(X ≤ ax) = −∞ π(a2 +x2 )
dx = −∞ π(a2 +(ay)2 )
ady = −∞ π(1+y 2 )
dy .
−1 X −|ta|
E(eitX ) = E(eitaa ) = E(eitaY ) = e = e−a|t| .
Exercice 5
R∞
Soit f la densité de notre variable et posons F̄ (x) = 1 − F (x) = x
f (t)dt.
0
F̄ est diérentiable avec dérivée F̄ (x) = −f (x). La propriété sans mémoire s'écrit
F̄ (s + t) = F̄ (t)F̄ (s). Dériver cette equation par rapport à t en t = 0 donne l'equation
diérentielle
0
F̄ (s) = −f (0)F̄ (s)
qui a comme solution F̄ (s) = ce−f (0)s . Donc f (t) = cf (0)e−f (0)t et c=1 est déterminé
par la normalisation. On obtient donc les lois exponentielles.
On peut justier l'échange d'intégration dans le cas où E(X r ) est ni car cette nitude
est l'hypothèse dans le Thm de Tonelli.
r
Si E(X ) est ni alors
Z b Z b
r r r
E(X ) = lim x F {dx} = −b (1 − F (b)) + rbr−1 (1 − F (x))dx
b→∞ 0 0
Exercice 7 Pour une loi exponentielle de paramètre λ > 0, on a une densité f (x) =
−λx −λx
λe 1x>0 et une fonction de répartition F (x) = 1 − e si x > 0 et F (x) = 0 sinon.
n −λx n
Il suit P(maxi=1,...,n Xi ≤ x) = P(X ≤ x) = (1 − e ) .
n
D'autre part, P(mini=1,...,n Xi ≤ x) = 1 − P(mini=1,...,n Xi > x) = 1 − P(X > x) =
1 − e−nλx .
Université Claude Bernard Lyon 1 Probabilités
Année universitaire 2008-2009
Feuille de TD 5
Exercice 3 Soit X et Y
deux variables aléatoires indépendantes de loi normale N (m, σ 2 ).
2
Calculer, en fonction de m et σ , l'espérance E[(X + Y ) ].
Quelques inégalités
Exercice 4 Soit X etdes variables aléatoires positives de carré intégrable sur (Ω, A, P).
Y
1. 2
A quelle condition a-t-on E(X ) = 0 ? On exclut cette possibilité dans la suite.
2. 2
En considérant la fonction λ 7→ E [(X + λY ) ], retrouver l'inégalité de Cauchy-Schwarz
(1 − a)E(X) ≤ E X1[aE(X),∞[ (X) .
E(X)2
P(X ≥ aE(X)) ≥ (1 − a)2 .
E(X 2 )
Exercice 5 L'inégalité de Jensen
Soit f : E ⊂ R → R une fonction convexe dénie sur un intervalle E qui contient les
valeurs d'une variable aléatoire X. On suppose que X et f (X) sont intégrables. Montrer
que
f (E(X)) ≤ E(f (X)).
Montrer que si f est strictement convexe, alors l'égalité f (E(X)) = E(f (X)) implique
que X est constante sur un événement presque sûr (c'est-à-dire de mesure 1 pour P).
Entropie
1. Montrer à l'aide de l'inégalité de Jensen que D est positif et que D(PkP0 ) = 0 implique
P = P0 .
2. Soit u la distribution uniforme sur Ω. Montrer que
3. En déduire que l'entropie binaire d'une distribution sur Ω prend ses valeurs entre 0 et
log2 |Ω| et que la distribution uniforme est l'unique point maximal de H.
Correction de la feuille de TD 5
On sait que U a pour densité par rapport à la mesure de Lebesgue 1/π1[0,π] (u). Donc
Z Z π Z π/2
1 2
g(sin(u))µU (du) = g(sin(u))du = g(sin(u))du.
R π 0 π 0
Z 1
2 1
E(g(sin(U ))) = g(t) √ dt.
π 0 1 − t2
2 1
Par conséquent, µsin(U ) (dt) =√ 1[0,1] (t)dt, donc la densité de sin(U ) au point t par
π 1 − t2
2 1
rapport à la mesure de Lebesgue est √ 1[0,1] (t).
π 1 − t2
6. Pour |U | et U 2 , il est plus direct de passer par la fonction de répartition. On trouve que
|U | est de loi uniforme sur [0, 1], U 2 a pour densité au point t par rapport à la mesure de
1 1 1+u
Lebesgue √ 1[0,1] (t). Pour la transformation par h(u) := ln , on peut remarquer
2 t 2 1−u
que cette fonction est strictement croissante de ]−1, 1[ vers R. On peut leur faire appliquer
2e2t
ce qui precede, on obtient une densité au point t donnée par .
(e2t + 1)2
Exercice 2 X, Y deux variables aléatoires indépendantes de loi normale N (0, 1).
Soit
1. La densité de (X, Y ) est ρ(t1 , t2 ) =
1 − 12 (t21 +t22 )
2π
e . Alors
Z Z
X t1 1 − 1 (t21 +t22 ) 1 1 2 2
P( ∈ A) = 1A ( ) e 2 dt1 dt2 = 1A (s) e− 2 (s +1)t2 ds|t2 |dt2 .
Y R2 t2 2π R2 2π
Par Fubini on peut evaluer
Z
1 1 2 +1)t2 1
e− 2 (s 2 |t2 |dt2 =
2π R π(1 + s2 )
ce qui est donc la densité de la loi de Y.
2. Si Z
est une variable aléatoire de loi de Cauchy alors sa loi est la même que celle de
X Y X −1
. Par symmetrie a la même loi que . Donc Z a la même loi que Z .
Y X Y
Quelques inégalités
Exercice 4 Soit X et Y des variables aléatoires positives de carré intégrables sur (Ω, A, P).
1. La variable aléatoire X 2 est positive ou nulle donc E(X 2 ) = 0 si et seulement si X 2
est nulle presque sûrement ou encore si et seulement si X est nulle presque sûrement.
2. 2 2 2 2
La fonction λ → E [(X + λY ) ] = E(X ) + 2λE(XY ) + λ E(Y ) est un trinôme du
2
second degré toujours positif. Par conséquent son discriminant est négatif : 4E(XY ) −
4E(X 2 )E(Y 2 ) ≤ 0 autrement dit, E(XY )2 ≤ E(X 2 )E(Y 2 ).
3. Comme X est une variable positive on a 1[aE(X),∞[ (X) = 1 − 1[0,aE(X)[ (X).
Or E(X1[0,aE(X)[ (X)) ≤ aE(X) donc E(X1[aE(X),∞[ (X)) ≥ E(X) − aE(X).
4. En utilisant les deux questions précédentes on a :
Entropie
Feuille de TD 6
σ2
P(X > t) ≤ .
σ 2 + t2
Exercice 2 Loi Gamma
Pour a > 0 et λ > 0, on dénit la loi γa,λ par sa densité relativement à la mesure de
Lebesgue :
λa
fa,λ (x) = exp(−λx)xa−1 1R+ (x).
Γ(a)
1. Vérier que cette fonction dénit bien une densité.
2. Déterminer l'espérance de cette loi.
Soit X et Y deux variables aléatoires réelles indépendantes de loi γa,λ et γb,λ respecti-
vement.
7. Déterminer la loi de X +Y.
σ 2 + c2
P(X ≥ t) ≤ .
(t + c)2
Le terme de droite est une fonction en c qui atteint son minimum au point c = σ 2 /t > 0
et donne le résultat attendu.
et Z
E(g(V1 + . . . + Vn )) = g(t)µV1 +...+Vn (dt).
R
Z ∞ Z ∞
λn−1 −λt n−2
Z
g(x + y)µ(S,Vn ) (dx, dy) = dx dtg(t) e x
R 0 x Γ(n − 1)
Z ∞
λn−1 −λt n−1 t
= g(t) e x /(n − 1) 0 dt
Γ(n − 1)
Z0
λn
= g(t) exp(−λt)tn−1 1R+ (t)dt
R Γ(n)
et Z
E(g(X + Y, X/Y )) = g ◦ f (x, y)µ(X,Y ) (dx, dy)
R2
où f (x, y) = (x + y, x/y) dénie de (R∗+ )2 (R∗+ )2 . Comme les variables X et Y sont
vers
indépendantes, le couple (X, Y ) a pour densité µX (dx)µY (dy) par rapport à la mesure de
2
Lebesgue sur R .
On fait alors le changement de variable u = x + y , v = x/y , pour x > 0 et y > 0 ;
Ceci est équivalent à x = uv/(v + 1) et y = u/(v + 1) pour u > 0 et v > 0.
v/(v + 1) u/(v + 1) u
On a de plus |J(u, v)| =
1/(v + 1) −u/(v + 1)2 = (v + 1)2 . Il suit
v a−1 λ2a
Z
E(g(X + Y, X/Y )) = g(u, v)u2a−1 e−λu 1u>0 1 v>0 dudv.
R2 (v + 1)2a Γ(a)2
λ2a 2a−1 −λu
Les variables sont indépendantes, µX+Y (du) = u e 1u>0 du et µX/Y (dv) =
Γ(2a)
Γ(2a) v a−1
1v>0 dv .
Γ(a)2 (v + 1)2a
6. Soit g une fonction mesurable bornée de R2 dans R2 . On a
Z
E(g(X + Y, X/(X + Y ))) = g(u, v)µ(X+Y,X/(X+Y )) (du, dv)
R2
et Z
E(g(X + Y, X/(X + Y ))) = g ◦ f (x, y)µ(X+Y,X/(X+Y )) (dx, dy)
R2
où f (x, y) = (x + y, x/(x + y)) dénie de (R∗+ )2 vers (R∗+ )2 . Comme les variables X et
Y sont indépendantes, le couple (X, Y ) a pour densité µX (dx)µY (dy) par rapport à la
mesure de Lebesgue sur R2 .
On fait alors le changement de variable u = x + y , v = x/(x + y), pour x > 0 et y > 0 ;
Ceci est équivalent à x = uv et y = u(1 − v) pour u > 0 et v ∈ (0, 1).
v u
On a de plus |J(u, v)| =
1 − v −u = u. Il suit
ta+b−1 Ca,b . La constante Ca,b est forcément égale à Γ(a)Γ(b)/Γ(a + b) en tenant compte
de la normalisation.
8. Si Z1 est de loi N (0, 1) et g une fonction mesurable bornée de R dans R. On a
Z Z Z
1 2 /2
E(g(X 2 )) = g(u)µX 2 (du) E(g(X 2 )) = g(x2 )µX (dx) = √ g(x2 )e−x dx.
R R 2π R
2 /2 2 R∞ 2 −x2 2 R∞ dy
Par parité de x 7→ g(x2 )e−x on a E(g(X 2 )) = √ 0
g(x )e dx = √ 0
g(y)e−y/2 √
2π 2π 2 y
1
donc µX 2 (dx) = √ e−y/2 y −1/2 1R+ (y).
2π
9. On le montre par récurrence. Pour n = 1 c'est vrai. Supposons que Sn−1 = Z1 +
2
2
. . . + Zn−1 ∼ γ n−1 , 1 et Zn ∼ N (0, 1). On a Sn = Sn−1 + Zn2 . Comme f (z1 , . . . , zn−1 ) =
2 2
z12 + . . . + zn−1
2 2 2
et g(xn ) = zn mesurables on en déduit que Sn−1 et Zn sont indépendantes
car (Z1 , . . . , Zn−1 ) et Zn le sont. On utilise ensuite la question 7 et 8 donnant Sn suit une
γ n−1 + 1 , 1 = γ n , 1 .
2 2 2 2 2
et Z
E(g(Xθ , Yθ )) = E(g ◦ hθ (X, Y )) = g ◦ hθ (x, y)µ(X,Y ) (dx, dy).
R2
−(x2 +y 2 )/2
X et Y
sont indépendantes donc (X, Y ) a pour densité e /(2π) par rapport à la
2
mesure de Lebesgue sur R . On fait le changement de variable u = x cos(θ) + y sin(θ),
v = −x sin(θ) + y cos(θ) pour (x, y) ∈ R2 . Ceci est équivalent à x = u cos(θ) − v sin(θ) et
y = u sin(θ) + v cos(θ) pour (u, v) ∈ R2 .
cos(θ) − sin(θ)
Le jacobien vaut |J(u, v)| = = 1. On obtient, en utilisant le fait que
sin(θ) cos(θ)
x2 + y 2 = u2 + v 2 ,
Z
2 +v 2 )/2
E(g ◦ hθ (X, Y )) = g(u, v)e−(u /(2π)dudv.
R2
Par conséquent, µ(Xθ ,Yθ ) = µXθ ⊗ µYθ . Ces deux variables aléatoires sont indépendantes.
Feuille de TD 7
Fonction caractéristique
Exercice 1 Lois symétriques, fonction caractéristique
La loi d'une variable aléatoire réelle X est dite symétrique lorsque X et −X ont même
loi.
1. À quelle condition une loi de densité f par rapport à la mesure de Lebesgue est-elle
symétrique ?
2. Soit X et Y des variables aléatoires indépendantes de même loi. Exprimer en fonction
de la fonction caractéristique ΦX de X les fonctions caractéristiques suivantes : Φ−X ,
ΦX+Y , ΦX−Y .
3. Montrer que la loi d'une variable aléatoire réelle X est symétrique si, et seulement si,
pour tout t ∈ R, ΦX (t) ∈ R.
4. Soit Y une v.a. réelle, et Z une v.a. indépendante de Y et de loi donnée par :
1
P(Z = 1) = = P(Z = −1).
2
Montrer que la loi de X = ZY est symétrique et calculer sa fonction caractéristique (en
fonction de ΦY ). Si Y admet une densité f, quelle est la loi de X?
Exercice 4 Soit X etY deux variables aléatoires indépendantes de loi N (0, 1). Détermi-
ner la loi du couple (X, X + Y ), et en déduire la loi conditionnelle de X sachant X + Y .
Exercice 5 Soit X, Ydes variables aléatoires indépendantes de loi N (0, 1).
1. 2
Déterminer la loi du couple (X, Z) = (X, X + Y ).
2
2. 2 2
En déduire la loi de X + Y puis la loi conditionnelle de X sachant X +
2
Y 2.
3. 2
Calculer E[ |X| |X + Y ].
√
2
Fonction caractéristique
Exercice 1 Lois symétriques, fonction caractéristique
La loi d'une variable aléatoire réelle X est dite symétrique lorsque X et −X ont même
loi.
1. X de loi f (x)dx. Il faut et il sut que f soit paire (ou plutôt, soit égale Lebesgue-
presque-partout à une fonction paire) pour que la loi de X soit symétrique. En eet la
loi de −X −f
est de densité
R R ; et si deux densités f et g fournissent la même loi, elles
R
sont telles que
A
f (x)dx = A g(x)dx pour tout borélien A, d'où 0 = {f −g>0} (f − g) −
R R
{f −g<0}
(f − g) = R |f (x) − g(x)|dx et donc f (x) = g(x) dx-presque partout.
2. Φ−X (t) = ΦX (−t) = ΦX (t) (car X(ω) ∈ R), ΦX+Y = (ΦX )2 , ΦX−Y = |ΦX |2 .
3. ΦX (t) ∈ R ssi ΦX (t) = ΦX (t) ssi ΦX (t) = Φ−X (t).
4. La variable Z est symétrique, et est indépendante de Y . Donc le couple (−Z, Y ) a
même loi que (Z, Y ). Donc −ZY et ZY ont même loi. Et, en découpant selon les valeurs
de Z , ΦX (t) = 12 (E[eitY ] + E[e−itY ]) = Re(ΦY (t)). Si Y a pour densité f , −Y a pour
1
R ity f (y)+f (−y)
densité y 7→ f (−y), donc ΦX (t) = (ΦY (t) + Φ−Y (t)) = e dy pour tout t, ce
2 2
f (y)+f (−y)
qui montre que X a pour densité .
2
Lois conditionnelles
Exercice 3 examen de rattrapage du 25 juin 2008. Pour toute f : R → R mesurable
bornée, on a :
Z Z Z
E[f (ϕ(X, Y ))] = f (ϕ(x, y))dµ(X,Y ) (x, y) = f (ϕ(x, y))dµX (x) dµY (y)
Z Z
= f (φ)dµϕ(X,y) (φ) dµY (y),
x2 (z−x)2 2
− − 2 + z4 √1
pour loi N (0, 2), la loi de X conditionnellement à Z a pour densité e 2 et
π
2 2 z 2 z
l'exposant s'écrit −(x − zx + z /4) = −(x − ) , donc c'est la loi N ( , 2).
2 2
(en reconnaissant la dérivée de arcsin √xz dans l'intégrale), autrement dit Z suit la loi
exponentielle de paramètre 1/2. Donc la loi conditionnelle de X sachant Z est p(z, dx) =
fX|Z=z (x)dx où, pour z>0 :
comme obtenu plus haut. On pourrait aussi retrouver la densité fX|Z=z (x).
Feuille de TD 8
Quelques Rappels
Par dénition [ \
lim inf An = Ak ,
n
n≥1 k≥n
donc ω ∈ lim inf n An ⇔ il existe n tel que ω ∈ Ak pour tout k ≥ n. lim inf n An contient
les éléments ω ∈ Ω qui appartiennent à tous les An à partir d'un certain rang. D'autre
part
\ [
lim sup An = Ak
n
n≥1 k≥n
donc ω ∈ lim supn An ⇔ pour tout n, il existe k(n) ≥ n tel que ω ∈ Ak(n) donc lim supn An
contient les éléments ω ∈ Ω qui appartiennent à une innité de An .
On savait déjà que pour une suite d'événements (An )n :
* P(∪∞
P∞
n=1 An ) ≤ n=1 P(An ) avec une égalité dans le cas où les An sont deux à deux
disjoints.
P(lim inf An ) = lim P(In ) ≤ lim inf P(An ) ≤ lim sup P(An ) ≤ lim P(Jn ) = P(lim sup An ).
n n→∞ n n n→∞ n
Borel-Cantelli :
Exercice 1 Soit(Xn )n≥0 une suite de variables aléatoires indépendantes de loi exponen-
tielle de paramètre λ > 0. On pose
Xn
Y = lim sup .
n ln n
1
Le but est de montrer que Y = λ
presque surement.
1. Montrer que
Xn 1 Xn 1
P lim sup ≥ ≤ P lim sup ≥ .
n ln n λ n ln n λ
2.
Xn 1
P(Y ≥ λ1 ) = 1.
Montrer que P lim supn ln n
≥ λ
= 1. En déduire que
3. Montrer que, pour tout > 0,
Xn 1+ Xn 1+
P lim sup > ≤ P lim sup > .
n ln n λ n ln n λ
4.
Xn 1+
1+
Montrer que P lim supn ln n
> λ
= 0. En déduire que P(Y > λ
) = 0.
5. En déduire
1
que P(Y = ) = 1.
λ
6. Montrer que
Xn
ln n
converge vers 0 en probabilité. Cette suite converge-t-elle presque
sûrement vers 0?
Exercice 2 Soit (pn )n≥1 une suite dans [0, 1] qui tend vers 0. Soit (Xn )n≥1 une suite de
variables aléatoires indépendantes de loi Bernoulli de paramètre pn : P(Xn = 1) = pn =
1 − P(Xn = 0).
1. Montrer que Xn converge vers 0 en probabilité.
2.
P
Sous quelle condition sur la somme n pn la suite (Xn )n≥1 converge-t-elle aussi presque
sûrement vers 0?
Exercice 3 (Un )n∈N une suite de variables aléatoires indépendantes de loi de Ber-
Soit
noulli de paramètre p (i.e. qui valent 1 avec probabilité p et 0 avec probabilité q = 1 − p).
Pour tout n, on note Yn = Un Un+1 , puis Sn = Y1 + . . . + Yn .
1. Pour tout n, quelle est la loi de Yn ?
2. A quelle condition sur n et m tels que 1 ≤ n < m les variables aléatoires Yn et Ym
sont-elles indépendantes ?
3. Calculer E[Yn Ym ] E[Sn /n].
puis calculer
4. Montrer qu'il existe une constante C telle que, pour tout n, Var[Sn ] ≤ Cn.
5. Démontrer que la suite Sn /n converge en probabilité vers une constante à préciser.
Correction de la feuille de TD 8
Exercice 1
1. Soit (xn )n≥0 une suite de nombres réels. On rappelle
Decoule de l' implication suivante
que lim supn xn = limn supk≥n xk . Alors on peut montrer que
X Xn 1
X1
P( ≥ )= = ∞.
n
ln n λ n
n
Xn 1
Comme les variables sont indépendantes, Borel Cantelli implique P(lim supn ln n
≥ λ
)=
1 et donc avec 1. P(Y ≥ λ1 ) = 1.
3. Decoule de l' implication suivante Soit
(xn )n≥0 une suite de nombres réels. On rappelle
que lim supn xn = limn supk≥n xk . Alors on peut montrer que
4. Maintenant
X Xn 1+ X
P( > )= n−(1+) < ∞.
n
ln n λ n
Xn
> λ1 (1 + ) ) = 0. P(Y > λ1 (1 +
Borel Cantelli nous dit alors que P(lim supn Avec 3.
ln n
)) = 0.
5. On laissant tendre vers 0 on obtient par σ -continuité que P(Y > λ1 ) = lim→0 P(Y >
1+
λ
) = 0. Donc P(Y = λ1 ) = P(Y ≥ λ1 ) − P(Y > λ1 )=1-0=1.
6. On a P( lnXnn ≥ a) = P(X1 ≥ aln n) → 0.
Exercice 2
1. > 0 que P(Xn ≥ ) ≤ pn −→ 0T. S
On a pour tout
n→∞
2. On pose Λn = {Xn = 1}. Λ = lim supn Λn = n k≥n Λk est l'ensemble des points
Xn
1. Montrons que
Xn
lim sup{ ln n
≥ 1/λ} ⊂ {lim sup ≥ 1/λ}.
ln n
Xn Xn
Soit ω ∈ lim sup{ ln n
≥ 1/λ}. Alors ω appartient à une innité d'événements { ln n
≥ 1/λ}
Xn (ω)
c'est-à-dire que l'ensemble {n ∈ N, ≥ 1/λ} est inni.
ln n
Xn (ω) X
Par conséquent, lim sup
ln n
≥ 1/λ ; soit encore ω ∈ {lim sup n ≥ 1/λ}.
ln n
2. On a P( ln n ≥ λ1 ) = P( Xn ≥ lnλn ) = e− ln n = n−1 . Donc
Xn
X Xn 1
X1
P( ≥ )= = ∞.
n
ln n λ n
n
Feuille de TD 9
0 si N = 0,
V = PN
i=1 Xi si N ≥ 1.
Exercice 3
1. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes et de même loi N (0, 1).
1 Pn
Montrer que la suite de terme général X 2 eXi converge presque sûrement lorsque
n i=1 i
n tend vers l'inni vers une limite que l'on précisera.
2. (Yn )n≥1 et (Zn )n≥1 des variables aléatoires indépendantes et de même loi uniforme
Soit
sur [0, 1]. Déterminer le comportement lorsque n tend vers l'inni de la suite de terme
1 Pn
général 1{Yi +Zi ≤1} .
n i=1
3. Notons Mn = max(Y1 , . . . , Yn ). Déterminer la loi de Mn puis montrer que Mn converge
en probabilité vers 1.
Correction de la feuille de TD 9
λ
(λ+µ)e−(λ+µ)z 1R+ (z)dz
R
D'autre part, P(Z ∈ A)P(1Z=X = 1) = P(Z ∈ A)P(X ≤ Y ) = A
.
λ+µ
Soit X et Y deux variables aléatoires indépendantes de lois respectives G(p) avec p ∈]0, 1[
et E(λ) avec λ > 0. On note Z = min(X, Y ).
4. X est une variable à valeurs dans N? et pour x ≥ 1, on a :
[x]
X
P(X ≤ x) = P(X ≤ [x]) = p(1 − p)k−1 = 1 − (1 − p)[x] .
k=1
6. Pour k ∈ N ,
?
P(Z = k) = P(X = k, Y > k) car Y est à densité donc P(Z = k) =
p(1 − p)k−1 e−λk .
7. Pour` ∈ N, a et b deux réels tels que ` < a < b < ` + 1, on a :
P(a < Z < b) = P(a < Y < b, X ≥ ` + 1) = P(a < Y < b)P(X ≥ ` + 1) = P(a < Y <
b)(1 − P(X ≤ `)) = (e−λa − e−λb )(1 − p)` .
Exercice 2
1.
PN Pk
itU
] = E[eitU ( nk=0 1N =k )] = nk=0 E[eit j=0 Xj ]P(N =
P P
On pose U= i=0 Xi . φU (t) = E[e
n
k) on trouve alors facilement que φU (t) = φX0 (t) (pφX0 (t) + 1 − p) .
2.
P
N V V
P ∞ P∞ V
On pose V = i=1 Xi 1N ≥1 . GV (s) = E[s ] = E[s ( k=0 1N =k )] = k=0 E[s 1N =k ] =
P∞ Pk
Xj
P∞ λk
P(N = 0)+ k=1 E[s
j=11N =k ] = e−λ + k −λ
k=1 (1−p+sp) e = eλp(s−1) . On reconnait
k!
la loi de Poisson de paramètre λp.
Exercice 3
1. E[X 2 eX ] = 2e1/2 . On a des variables aléatoires indépendantes de même loi intégrables
donc d'après la loi forte des grands nombres on a la convergence ps vers 2e1/2 .
2. E[1Y +Z≤1 ] = 1/2. On a des variables aléatoires indépendantes de même loi intégrables
donc d'après la loi forte des grands nombres on a la convergence ps vers 1/2.
3. Notons Mn = max(Y1 , . . . , Yn ). On a pour x < 0 P(Mn ≤ x) = 0 et pour x > 1
P(Mn ≤ x) = 1. Pour x ∈ [0, 1], on a P(Mn ≤ x) = P(Y1 ≤ x)n = xn .
P(|Mn − 1| > ε) = (1 − ε)n 10<ε≤1 . Donc cette probabilité tend vers 0 pour tout ε > 0.
Université Claude Bernard Lyon 1 Probabilités
Année universitaire 2008-2009
Feuille de TD 10
Exercice 1
Montrer que, dans une suite de lancers indépendants de pièces de monnaie identiques, la
séquence PFPFF ( Pile, Face) apparaît une innité de fois. Préciser ce résultat à l'aide de
la loi forte des grands nombres.
Exercice 2
Soit (Xn )n≥1
une suite de variables aléatoires indépendantes, de même loi. On note X =
X1 . On suppose E[X] = 0 et E[X 4 ] < ∞. Le but de l'exercice est de démontrer la loi forte
des grands nombres pour la suite (Xn )n . On note, pour tout n, Sn = X1 + · · · + X n .
1. 4 4
Montrer que, pour tout n, E[Sn ] = nE[X ] + 3n(n − 1)E[X ] .
2 2
2.
P
En déduire que, pour tout ε > 0, n P(|Sn | > nε) converge.
3. Conclure.
Exercice 3 Soit (Xn )n≥1 une suite de variables aléatoires indépendantes, de loi E(λ).
1. Montrer la convergence en probabilité suivante :
1 (p) 1
max Xk −→ .
ln n 1≤k≤n n λ
Exercice 4
1. Montrer que si (Xn )n converge en loi vers une variable aléatoire constante c, alors la
convergence a lieu en probabilité.
2. Donner un exemple de suite (Xn )n≥0 qui converge en loi mais pas en probabilité (et
donc pas presque sûrement). Indication : utiliser par exemple X de loi N (0, 1) et −X ,
qui a même loi.
Exercice 5 Soient X1 , . . . , X n des variables aléatoires indépendantes de loi exponentielle
X1 + · · · + Xn
de paramètre λ > 0. On pose X n = et Zn = 1/X n .
n
1. Montrer que Zn converge presque sûrement vers λ quand n tend vers ∞.
2. En supposant n susamment grand pour que cela se justie, par quelle loi gaussienne
peut-on approcher la loi de X n ?
3. Soit N une variable aléatoire de loi N (0, 1), montrer qu'il existe un unique φ ∈ R+ tel
que P(|N | ≤ φ) = 0, 95.
4. En déduire un intervalle de la forme I = [1/λ − β, 1/λ + β], avec β à déterminer, tel
que P(X n ∈ I) = 0, 95.
5. En déduire ensuite un intervalle de la forme J = [α1 λ, α2 λ], avec α1 , α2 à déterminer,
tel que P(Zn ∈ J) = 0, 95.
6. Application numérique : calculer J , en fonction de λ inconnu, pour n = 10000 et
φ = 1, 96.
Correction de la feuille de TD 10
Exercice 1 (Xn )n≥0 suite i.i.d. de loi P(Xn = F ) = 1/2 = 1 − P(Xn = P ). On applique
Borel-Cantelli aux événements indépendants
1 1 X 1 X
]{1 ≤ k ≤ n|(Xk , Xk+1 , Xk+2 , Xk+3 , Xk+4 ) = (P, F, P, F, F )} = 1A5k +· · ·+ 1A →
−
n n 1≤5k≤n n 1≤5k+4≤n 5k+4 n
(on découpe l'ensemble selon le résidu de k modulo 5 de façon à avoir des v.a. indépen-
dantes).
Exercice 2
Soit (Xn )n≥1 une suite de variables aléatoires indépendantes, de même loi. On note X =
X1 . On suppose E[X] = 0 et E[X 4 ] < ∞. Le but de l'exercice est de démontrer la loi forte
des grands nombres pour la suite (Xn )n .
1. Montrer que, pour tout n, E[Sn4 ] = nE[X 4 ] + 3n(n − 1)E[X 2 ]2 . (développer...)
2. Pour tout ε > 0,
E[Sn4 ] 3E[X 2 ]2
P(|Sn | > nε) = P(|Sn |4 > n4 ε4 ) ≤ ∼n .
n4 ε4 n2 ε4
3. Pour tout p ∈ N∗ , en prenant ε = 1/p, par Borel-Cantelli, il existe p.s. n0 tel que,
|Sn |
pour n ≥ n0 , n
≤ p1 . Comme une intersection dénombrable d'événements presque sûrs
|Sn |
est presque sûre, on a : p.s., pour tout p ∈ N∗ , il existe n0 tel que, pour n ≥ n0 , n
≤ 1
p
,
Exercice 3 Soit (Xn )n≥1 une suite de variables aléatoires indépendantes, de loi E(λ).
1. Soit ε > 0. On a :
1 1 1
P( max Xk − > ε) = P(Xk > ( + ε) ln n)n
ln n 1≤k≤n λ λ
= exp(−n(1 + λε) ln n) →n 0
et, si ε < 1/λ :
1 1 1
P( max Xk − < −ε) = (1 − exp(−(1 − λε) ln n))n = exp(n ln(1 − 1−ελ )) →n 0,
ln n 1≤k≤n λ n
et cette proba est nulle si ε > 1/λ.
2. Pour t ≤ 0, P(Zn ≤ t) = 0 et on a, pour tout t>0 :
ln n
P(Zn ≤ t) = P(Xk − ≤ t)n
λ
e−λt n −λt
= (1 − ) →n e−e .
n
−λt
Donc Zn converge en loi vers la loi ayant pour fonction de répartition F (t) = e−e 1[0,+∞[ (t).
−λt −e−λt
En dérivant, on voir que c'est aussi la loi de densité λe e 1[0,+∞[ (t). Il s'agit d'une
loi de Gumbel.
Exercice 4
1. Si (Xn )n converge en loi vers la variable aléatoire constante c, alors : pour tout ε > 0,
par convergence des fonctions de répartition aux points de continuité de la limite (ici,
partout sauf en c).
2. X de loi N (0, 1). Alors −X a même loi, donc la suite Xn = (−1)n X converge en loi
vers X ; or Xn − X = 0 si n est pair et −2X si n est impair donc la suite P(|Xn − X| > 1)
ne converge pas vers 0.
Exercice 5
1. Par la loi des grands nombres (X1 integrable) on a X n →ps E[X1 ] = 1/λ. Donc
Zn →ps λ.
2. Par le T.C.L. si Sn = nX n alors
Sn − nE[X1 ]
√ ∼ N (0, σ(X1 ))
n
1
donc X ∼ N (1/λ, √ ).
Rnλ √
3. La fonction x 7→ −x x 2
e−t /2 dt/ 2π est continue, croissante de 0 à 1 donc le théorème des
valeurs intermédiaires (si I intervalle de R et f dénie sur I à valeurs réelles et continue
alors f (I) est un intervalle.)
√
4. nλ(X − 1/λ) ∼ N (0, 1) donc
√
P( nλ|X − 1/λ| < φ) = 0.95
√ √
c'est à dire P(|X − 1/λ| < φ/( nλ)) = 0.95 donc β = φ/( nλ).
√ √
5. P(1/λ + φ/( nλ) ≤ X ≤ 1/λ + φ/( nλ)) = 0.95 est equivalent à
√ √
P(λ(1/(1 + φ/ n)) ≤ Zn ≤ λ(1/(1 − φ/ n))) = 0.95
donc on pose
√ √
α1 = λ(1/(1 + φ/ n)) et α2 = λ(1/(1 − φ/ n)).
√
6. φ/ n = 0.0196 donc α1 = 0.98 et α2 = 1.02 d'ou J = [0.98λ, 1.02λ].