Aller au contenu

« Loi forte des grands nombres » : différence entre les versions

Un article de Wikipédia, l'encyclopédie libre.
Contenu supprimé Contenu ajouté
Scrabble (discuter | contributions)
m →‎Réciproque : ponctuation
Malparti (discuter | contributions)
 
(28 versions intermédiaires par 15 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
Une '''loi forte des grands nombres''' est une loi mathématique selon laquelle la moyenne des ''n'' premiers termes d'une suite de [[variable aléatoire|variables aléatoires]] converge [[Convergence de variables aléatoires#Convergence presque sûre|presque sûrement]] vers une constante (non aléatoire), lorsque ''n'' tend vers l'infini. Lorsque ces variables ont même espérance, par exemple lorsqu'elles ont toutes même loi, cette limite constante est l'[[Espérance mathématique|espérance]] commune à toutes les variables aléatoires de cette suite. La loi forte est vérifiée sous diverses conditions de dépendance et d'intégrabilité portant sur les variables aléatoires de la suite.
Une '''loi forte des grands nombres''' est une loi mathématique selon laquelle la moyenne des ''n'' premiers termes d'une suite de [[variable aléatoire|variables aléatoires]] converge [[Convergence de variables aléatoires#Convergence presque sûre|presque sûrement]] vers une constante (non aléatoire), lorsque ''n'' tend vers l'infini. Lorsque ces variables ont même espérance, par exemple lorsqu'elles ont toutes la même loi, cette limite constante est l'[[Espérance mathématique|espérance]] commune à toutes les variables aléatoires de cette suite. La loi forte est vérifiée sous diverses conditions de dépendance et d'intégrabilité portant sur les variables aléatoires de la suite.


Les exemples les plus célèbres concernent la proportion de résultats pile ou face lors des ''n'' premiers lancers d'une série potentiellement infinie de lancers (cette proportion converge presque sûrement vers 0,5), ou la proportion de chiffres 0, 1, 2, ..., 8 ou 9 dans le développement décimal d'un nombre réel tiré au hasard. La première version de la loi forte des grands nombres est due à [[Émile Borel]], qui démontre ainsi, en 1909<ref>{{Article
Les exemples les plus célèbres concernent la proportion de résultats pile ou face lors des ''n'' premiers lancers d'une série potentiellement infinie de lancers (cette proportion converge presque sûrement vers 0,5), ou la proportion de chiffres 0, 1, 2, ..., 8 ou 9 dans le [[développement décimal]] d'un [[nombre réel]] tiré au hasard. La première version de la loi forte des grands nombres est due à [[Émile Borel]], qui démontre ainsi, en 1909<ref>{{Article
|langue=fr
|langue=fr
|prénom1=Émile
|prénom1=Émile
Ligne 8 : Ligne 8 :
|titre=Les probabilités dénombrables et leurs applications arithmétiques
|titre=Les probabilités dénombrables et leurs applications arithmétiques
|périodique=Rendiconti del Circolo Matematico di Palermo
|périodique=Rendiconti del Circolo Matematico di Palermo
|éditeur=[[Circolo Matematico di Palermo]]
|mois=décembre
|mois=décembre
|année=1909
|année=1909
Ligne 19 : Ligne 20 :
}}.</ref>, le théorème des [[Nombre normal|nombres normaux]].
}}.</ref>, le théorème des [[Nombre normal|nombres normaux]].


== Énoncé général==
== Énoncé général ==
Le principe de la loi forte des grands nombres est que sous certaines conditions (sur la dépendance, sur l'homogénéité et sur les moments) la moyenne d'une suite de [[variable aléatoire|variables aléatoires]] <math>\{X_n\}</math> converge [[Convergence de variables aléatoires#Convergence presque sûre|presque sûrement]] vers la même limite (constante) que l'[[Espérance mathématique|espérance]] de la moyenne. En particulier, l'adjectif « fort » fait référence à la nature de la convergence établie par ce théorème : il est réservée à un résultat de [[Convergence de variables aléatoires#Convergence presque sûre|''convergence presque sûre'']]. Par opposition, la [[Loi des grands nombres#Loi faible des grands nombres|loi ''faible'' des grands nombres]], établie par Bernoulli, est un résultat de [[Convergence de variables aléatoires#Convergence en probabilité|''convergence en probabilité'']], seulement. Soit :
Le principe de la loi forte des grands nombres est que sous certaines conditions (sur la dépendance, sur l'homogénéité et sur les moments) la moyenne d'une suite de [[variable aléatoire|variables aléatoires]] <math>\{X_n\}</math> converge [[Convergence de variables aléatoires#Convergence presque sûre|presque sûrement]] vers la même limite (constante) que l'[[Espérance mathématique|espérance]] de la moyenne. En particulier, l'adjectif « fort » fait référence à la nature de la convergence établie par ce théorème : il est réservée à un résultat de [[Convergence de variables aléatoires#Convergence presque sûre|''convergence presque sûre'']]. Par opposition, la [[Loi des grands nombres#Loi faible des grands nombres|loi ''faible'' des grands nombres]], établie par Bernoulli, est un résultat de [[Convergence de variables aléatoires#Convergence en probabilité|''convergence en probabilité'']], seulement. Soit :
{{Théorème|Principe général| <math>\qquad(\bar X_n -\bar\mu_n) \xrightarrow{p.s.}\ 0\qquad \qquad \text{ avec } \bar X_n\equiv \frac{1}{n}\sum_{i=1}^n X_i\text{ et } \bar \mu_n\equiv \operatorname{E}\left[\bar X_n\right]</math>}}
{{Théorème|Principe général| <math>\qquad(\overline X_n -\overline\mu_n) \xrightarrow{p.s.}\ 0\qquad \qquad \text{ avec } \overline X_n\equiv \frac{1}{n}\sum_{i=1}^n X_i\text{ et } \overline \mu_n\equiv \operatorname{E}\left[\overline X_n\right]</math>}}


Il existe différents théorèmes selon le type d'hypothèses faites sur la suite <math>\{X_n\}</math><ref>Classification et notation reprise de White (1984).</ref> :
Il existe différents théorèmes selon le type d'hypothèses faites sur la suite <math>\{X_n\}</math><ref>Classification et notation reprise de White (1984).</ref> :
Ligne 28 : Ligne 29 :
* observations dépendantes et identiquement distribuées.
* observations dépendantes et identiquement distribuées.


===Observations indépendantes et identiquement distribuées===
=== Observations indépendantes et identiquement distribuées ===
{{Théorème|Loi forte des grands nombres ([[Andreï Kolmogorov|Kolmogorov]], 1929)|Si <math>\ \scriptstyle {(X_n)}_{n>0}</math> est une suite de v.a. i.i.d., on a équivalence entre :
{{Théorème|Loi forte des grands nombres ([[Andreï Kolmogorov|Kolmogorov]], 1929)|Si <math>{(X_n)}_{n>0}</math> est une suite de variables aléatoires indépendantes identiquement distribuées, on a équivalence entre :


::'''(i)''' <math>\ \mathbb{E}\left(\left| X_1 \right|\right)<+\infty,</math>
::'''(i)''' <math>\ \mathbb{E}\left(\left| X_1 \right|\right)<+\infty,</math>


::'''(ii)''' la suite <math>\ \scriptstyle \tfrac{X_1 + \cdots + X_n}{n}\ </math> converge presque sûrement.
::'''(ii)''' la suite <math>\textstyle\frac{X_1 + \cdots + X_n}{n}</math> converge presque sûrement.


:De plus, si l'une de ces deux conditions équivalentes est remplie, alors la suite <math>\ \scriptstyle \tfrac{X_1 + \cdots + X_n}{n}\ </math> converge presque sûrement vers la constante <math>\ \scriptstyle \mathbb{E}\left(X_1\right).</math></center>}}
:De plus, si l'une de ces deux conditions équivalentes est remplie, alors la suite <math>\textstyle \frac{X_1 + \cdots + X_n}{n}</math> converge presque sûrement vers la constante <math>\mathbb{E}(X_1).</math>}}


C'est la première loi forte à avoir été démontrée avec des hypothèses optimales. Pour la démontrer, il fallait définir rigoureusement le concept de convergence presque sûre, ce qui a amené [[Andreï Kolmogorov|Kolmogorov]] à considérer les probabilités comme une branche de la [[théorie de la mesure]] : saut conceptuel dont [[Andreï Kolmogorov|Kolmogorov]] prouvait ainsi l'efficacité. La théorie moderne des probabilités s'est construite à partir du travail fondateur de [[Andreï Kolmogorov|Kolmogorov]] sur la loi forte des grands nombres. La loi forte des grands nombres est aussi un ingrédient important dans la démonstration d'autres lois fortes des grands nombres, comme le [[théorème de Glivenko-Cantelli]], la LFGN pour les processus de renouvellement, ou la LFGN pour les chaînes de Markov. C'est bien du théorème dû à Kolmogorov dont on parle lorsqu'on dit « '''la''' loi forte des grands nombres », les autres théorèmes n'étant que '''des''' lois fortes des grands nombres. Ce théorème est aussi intéressant parce qu'il aboutit à une conclusion plus forte : il établit l'équivalence entre l'intégrabilité de la suite et sa convergence, alors que les autres théorèmes fournissent seulement des implications, sans leurs réciproques. Dans le cas où les termes de la somme sont des [[Variable de Bernoulli|variables de Bernoulli]], la loi forte des grands nombres a été établie par [[Émile Borel]] en 1909. D'autres versions de la loi forte des grands nombres ont succédé à la version due à Borel, jusqu'à la version définitive de Kolmogorov.
C'est la première loi forte à avoir été démontrée avec des hypothèses optimales. Pour la démontrer, il fallait définir rigoureusement le concept de convergence presque sûre, ce qui a amené [[Andreï Kolmogorov|Kolmogorov]] à considérer les probabilités comme une branche de la [[théorie de la mesure]], un saut conceptuel dont Kolmogorov prouvait ainsi l'efficacité. La théorie moderne des probabilités s'est construite à partir du travail fondateur de Kolmogorov sur la loi forte des grands nombres. La loi forte des grands nombres est aussi un ingrédient important dans la démonstration d'autres lois fortes des grands nombres, comme le [[théorème de Glivenko-Cantelli]], la LFGN pour les processus de renouvellement, ou la LFGN pour les [[Chaîne de Markov|chaînes de Markov]]. C'est bien du théorème dû à Kolmogorov que l'on parle lorsqu'on dit « '''la''' loi forte des grands nombres », les autres théorèmes n'étant que '''des''' lois fortes des grands nombres. Ce théorème est aussi intéressant parce qu'il aboutit à une conclusion plus forte : il établit l'équivalence entre l'intégrabilité de la suite et sa convergence, alors que les autres théorèmes fournissent seulement des implications, sans leurs réciproques. Dans le cas où les termes de la somme sont des [[Variable de Bernoulli|variables de Bernoulli]], la loi forte des grands nombres a été établie par [[Émile Borel]] en 1909. D'autres versions de la loi forte des grands nombres ont succédé à la version due à Borel, jusqu'à la version définitive de Kolmogorov.


===Observations indépendantes et non-identiquement distribuées===
=== Observations indépendantes et non-identiquement distribuées ===


{{Théorème|Théorème de Markov|Soit <math>\{X_n\}</math> une suite de variables aléatoires indépendantes d'espérance finie <math> \operatorname{E}(X_n)\equiv\mu_n</math>. S'il existe <math> \delta >0</math> tel que <math>\sum_{n=1}^{\infty} \frac{\operatorname{E}\left(|X_n -\mu_n|^{1+\delta}\right)}{n^{1+\delta}} <\infty </math> alors <math>
{{Théorème|Théorème de Markov|Soit <math>\{X_n\}</math> une suite de variables aléatoires indépendantes d'espérance finie <math> \mathbb{E}(X_n)\equiv\mu_n</math>. S'il existe <math> \delta \in ]0,1] </math> tel que
:<math>\sum_{n=1}^{\infty} \frac{\mathbb{E}\left(|X_n -\mu_n|^{1+\delta}\right)}{n^{1+\delta}} <\infty </math>
alors
\bar X_n -\bar\mu_n \xrightarrow{p.s.} 0 </math> }}
:<math>\overline X_n -\overline\mu_n \xrightarrow{p.s.} 0 .</math> }}
Pour pouvoir relâcher l'hypothèse d'équidistribution, on est amené à faire une hypothèse plus forte sur l'intégrabilité.
Pour pouvoir relâcher l'hypothèse d'équidistribution, on est amené à faire une hypothèse plus forte sur l'intégrabilité.


===Observations dépendantes et identiquement distribuées===
=== Observations dépendantes et identiquement distribuées ===


{{Théorème|Théorème ergodique|Soit <math>\{X_t\}</math> une suite de variables aléatoires [[Stationnarité d'une série temporelle|stationnaire]] [[Processus ergodique|ergodique]] avec <math>\operatorname{E}(|X_t|)<\infty</math> et d'espérance identique finie <math> \operatorname{E}(X_t)\equiv\mu</math> Alors <math>\bar X_t \xrightarrow{p.s.} \mu</math>}}
{{Théorème|Théorème ergodique|Soit <math>\{X_t\}</math> une suite de variables aléatoires [[Stationnarité d'une série temporelle|stationnaire]] [[Processus ergodique|ergodique]] avec <math>\mathbb{E}(|X_t|)<\infty</math> et d'espérance identique finie <math> \mathbb{E}(X_t)\equiv\mu</math>. Alors
:<math>\overline X_t \xrightarrow{p.s.} \mu.</math>}}


== Loi forte des grands nombres de Kolmogorov ==
== Loi forte des grands nombres de Kolmogorov ==
La [[moyenne empirique]] d’une suite de [[variable aléatoire|variables aléatoires]] indépendantes, identiquement distribuées, et '''intégrables''', converge [[presque sûrement]] vers leur [[moyenne mathématique]] (ou [[variable aléatoire réelle#Espérance mathématique|espérance]]).
La [[moyenne empirique]] d’une suite de [[variable aléatoire|variables aléatoires]] indépendantes, identiquement distribuées, et '''intégrables''', converge [[presque sûrement]] vers leur [[moyenne mathématique]] (ou [[variable aléatoire réelle#Espérance mathématique|espérance]]).


===Autres formulations===
=== Autres formulations ===


On note souvent :
On note souvent :
<center><math>S_{n}=X_{1}+X_{2}+\cdots+X_{n}.</math></center>
<center><math>S_{n}=X_{1}+X_{2}+\cdots+X_{n}.</math></center>
Ainsi l'énoncé devient
Ainsi l'énoncé devient
{{Théorème|Pour une suite <math>{(X_n)}_{n>0}</math> de variables aléatoires indépendantes et identiquement distribuées, le fait que <math>\textstyle \frac{S_{n}(\omega)}{n}</math> soit une suite convergente presque-sûrement est équivalent au fait que <math>\mathbb{E}\left[\left|X_{1}\right|\right]<+\infty</math>.
{{Théorème|Pour une suite <math>\ \scriptstyle {(X_n)}_{n>0}</math> de v.a. i.i.d., on a :

<center><math>\ \scriptstyle \left\{\text{p.s. }\tfrac{S_{n}(\omega)}{n}\text{ est une suite convergente}\right\}\Leftrightarrow\left\{\mathbb{E}\left[\left|X_{1}\right|\right]<+\infty\right\}.</math></center>
De plus, si l'une de ces deux conditions équivalentes est remplie, on a :
De plus, si l'une de ces deux conditions équivalentes est remplie, on a :
<center><math>\mathbb{P}\left(\omega\in\Omega\ \left|\ \lim_{n}\tfrac{S_{n}(\omega)}n=\mathbb{E}\left[X_{1}\right]\right.\right)=1.</math></center>}}
<center><math>
\ \scriptstyle \mathbb{P}\left(\omega\in\Omega\ \left|\ \lim_{n}\tfrac{S_{n}(\omega)}n=\mathbb{E}\left[X_{1}\right]\right.\right)
=
1.
</math></center>}}


====Énoncé usuel de la loi forte====
==== Énoncé usuel de la loi forte ====


L'énoncé ci-dessous est la forme habituelle de la loi forte des grands nombres, et est une conséquence directe (une forme affaiblie) du Théorème donné plus haut :
L'énoncé ci-dessous est la forme habituelle de la loi forte des grands nombres, et est une conséquence directe (une forme affaiblie) du théorème donné plus haut :
{{Théorème|Soit une suite <math>\ \scriptstyle \left(X_{n}\right)_{n\ge 1}\ </math> de variables aléatoires indépendantes et de même loi, intégrables. Alors
{{Théorème|Soit une suite <math>(X_{n})_{n\ge 1}</math> de variables aléatoires indépendantes et de même loi, intégrables. Alors
<center><math>\mathbb{P}\left(\omega\in\Omega\ \left|\ \lim_{n}\tfrac{S_{n}(\omega)}n=\mathbb{E}\left[X_{1}\right]\right.\right)=1.
<center><math>
\ \scriptstyle \mathbb{P}\left(\omega\in\Omega\ \left|\ \lim_{n}\tfrac{S_{n}(\omega)}n=\mathbb{E}\left[X_{1}\right]\right.\right)
=
1.
</math></center>}}
</math></center>}}


====Remarques====
==== Remarques ====
*En statistiques, <math>\ \scriptstyle \tfrac{X_1 + \cdots + X_n}{n}\ </math> ou bien <math>\ \scriptstyle \tfrac{S_n}{n}\ </math> est appelée '''[[moyenne empirique]]''' des <math>\ \scriptstyle X_i\ </math>, et est souvent notée <math>\ \scriptstyle \overline{X}\ </math>.
* En statistiques, <math>\textstyle \frac{X_1 + \cdots + X_n}{n}</math> ou bien <math>\textstyle \frac{S_n}{n}</math> est appelée '''[[moyenne empirique]]''' des <math>X_i</math>, et est souvent notée <math>\overline{X}_n</math>.
*On peut formuler l'hypothèse <math>\ \scriptstyle \left\{\forall n\ge1,\ X_{n}\text{ est integrable}\right\}\ </math>, sous différentes formes, e.g.
* On peut formuler l'hypothèse <math>\left\{\forall n\ge1,\ X_{n}\text{ est integrable}\right\}</math> sous différentes formes :
** <math>\ \scriptstyle \left\{\forall n\ge1,\ \mathbb{E}\left[\left|X_{n}\right|\right]<+\infty\right\}\ </math>,
** <math>\left\{\forall n\ge1,\ \mathbb{E}\left[\left|X_{n}\right|\right]<+\infty\right\}</math>,
** <math>\ \scriptstyle \left\{\forall n\ge1,\ X_{n}\in\mathcal L^1(\Omega,\mathcal A,\mathbb P)\right\}\ </math>,
** <math>\left\{\forall n\ge1,\ X_{n}\in\mathcal L^1(\Omega,\mathcal A,\mathbb P)\right\}</math>,
* ou bien encore, puisque les <math>\ \scriptstyle X_{i}\ </math> ont toutes même loi,
* ou bien encore, puisque les <math>X_{i}</math> ont toutes même loi,
** <math>\ \scriptstyle \left\{X_{1}\text{ est integrable}\right\}\ </math>,
** <math>\left\{X_{1}\text{ est integrable}\right\}</math>,
** <math>\ \scriptstyle \left\{\mathbb{E}\left[\left|X_{1}\right|\right]<+\infty\right\}\ </math>,
** <math>\left\{\mathbb{E}\left[\left|X_{1}\right|\right]<+\infty\right\}</math>,
** <math>\ \scriptstyle \left\{X_{1}\in\mathcal L^1(\Omega,\mathcal A,\mathbb P)\right\}\ </math>.
** <math>\left\{X_{1}\in\mathcal L^1(\Omega,\mathcal A,\mathbb P)\right\}</math>.


==Démonstration de la loi forte de Kolmogorov==
== Démonstration de la loi forte de Kolmogorov ==
===1ère étape de la démonstration : troncature===
=== {{1ère}} étape de la démonstration : troncature ===
<!--\label{section:tronc}-->
<!--\label{section:tronc}-->
On suppose tout d'abord que les variables <math>\ \scriptstyle X_{n}\ </math> sont '''centrées'''. On n'abandonnera cette hypothèse qu'à la toute dernière étape de la démonstration. On pose
On suppose tout d'abord que les variables <math>X_{n}</math> sont '''centrées'''. On n'abandonnera cette hypothèse qu'à la toute dernière étape de la démonstration. On pose
<center><math>
<center><math>
X^{\prime}_{n}
X^{\prime}_{n}
Ligne 106 : Ligne 101 :
<!--\label{tronc}-->
<!--\label{tronc}-->


{{Théorème|Proposition 1.|'' Soit une suite <math>\ \scriptstyle \left(X_{n}\right)_{n\ge 1}\ </math> de variables aléatoires indépendantes et de même loi, intégrables. Alors (la loi forte des grands nombres)''
{{Théorème|Proposition 1.|Soit une suite <math>\left(X_{n}\right)_{n\ge 1}</math> de variables aléatoires indépendantes et de même loi, intégrables. Alors (la loi forte des grands nombres)
<center><math>
<center><math>
\ \scriptstyle \mathbb{P}\left(\omega\in\Omega\ \left|\ \lim_{n}\tfrac{S_{n}(\omega)}n=0\right.\right)
\mathbb{P}\left(\omega\in\Omega\ \left|\ \lim_{n}\tfrac{S_{n}(\omega)}n=0\right.\right)
=
=
1.
1.
</math></center>
</math></center>
:''est équivalente à''
:est équivalente à
<!--\label{lfgnprime}-->
<!--\label{lfgnprime}-->
<center><math>
<center><math>
\ \scriptstyle \mathbb{P}\left(\omega\in\Omega\ \left|\ \lim_{n}\tfrac{S^{\prime}_{n}(\omega)}n=0\right.\right)
\mathbb{P}\left(\omega\in\Omega\ \left|\ \lim_{n}\tfrac{S^{\prime}_{n}(\omega)}n=0\right.\right)
=
=
1.
1.
Ligne 121 : Ligne 116 :
}}
}}


{{Démonstration| Posons
{{Démonstration| Posons
<center><math>A_{n}=\left\{\omega\in \Omega\,\left|\,X_{n}(\omega)\neq X^{\prime}_{n}(\omega)\right.\right\}</math></center>
<center><math>A_{n}=\left\{\omega\in \Omega\,\left|\,X_{n}(\omega)\neq X^{\prime}_{n}(\omega)\right.\right\}</math></center>
Alors
Alors
Ligne 143 : Ligne 138 :
<!--\label{toutplus1}-->
<!--\label{toutplus1}-->
<!--\label{memeloi1}-->
<!--\label{memeloi1}-->
la {{3e|égalité}} car <math>\ \scriptstyle X_{1}\ </math> et <math>\ \scriptstyle X_{n}\ </math> ont même loi, la dernière égalité en vertu du [[Théorème de convergence monotone]] pour les séries à termes positifs. Notons que la fonction <math>\ \scriptstyle \phi\ </math> définie pour <math>\ \scriptstyle x\ge 0\ </math> par
la {{3e|égalité}} car <math>X_{1}</math> et <math>X_{n}</math> ont même loi, la dernière égalité en vertu du [[Théorème de convergence monotone]] pour les séries à termes positifs. Notons que la fonction <math>\phi</math> définie pour <math>x\ge 0</math> par
<center><math>
<center><math>
\phi(x)
\phi(x)
Ligne 149 : Ligne 144 :
\sum_{n\ge1}\,1_{x>n}
\sum_{n\ge1}\,1_{x>n}
</math></center>
</math></center>
satisfait, pour <math>\ \scriptstyle x\ge 0\ </math>,
satisfait, pour <math>x\ge 0</math>,
<center><math>
<center><math>
\phi(x)
\phi(x)
Ligne 194 : Ligne 189 :
\left\{\omega\in\Omega\,|\,\lim_{n}\ n^{-1}\,S^{\prime}_{n}(\omega)\ = 0\right\}
\left\{\omega\in\Omega\,|\,\lim_{n}\ n^{-1}\,S^{\prime}_{n}(\omega)\ = 0\right\}
\end{align}</math></center>
\end{align}</math></center>
et on remarque que si <math>\ \scriptstyle \omega\in\hat{\Omega}\ </math>, la série
et on remarque que si <math>\omega\in\hat{\Omega}</math>, la série
<center><math>\sum_{k\ge 1}\left(X_{k}(\omega)- X^{\prime}_{k}(\omega)\right)</math></center>
<center><math>\sum_{k\ge 1}\left(X_{k}(\omega)- X^{\prime}_{k}(\omega)\right)</math></center>
est une série convergente, puisque, en dehors d'un nombre fini d'entre eux, tous ses termes sont nuls.
est une série convergente, puisque, en dehors d'un nombre fini d'entre eux, tous ses termes sont nuls.
Ligne 206 : Ligne 201 :
<center><math>\lim_{n}\ \frac{S_{n}(\omega)- S^{\prime}_{n}(\omega)}n\ = 0.</math></center>
<center><math>\lim_{n}\ \frac{S_{n}(\omega)- S^{\prime}_{n}(\omega)}n\ = 0.</math></center>
Autrement dit, en vertu du lemme de Borel-Cantelli, dont les hypothèses ont été vérifiées lors de la première partie de cette démonstration,
Autrement dit, en vertu du lemme de Borel-Cantelli, dont les hypothèses ont été vérifiées lors de la première partie de cette démonstration,
<center><math>\ \mathbb{P}\left(\hat{\Omega}\right)=1.\ </math></center>
<center><math>\ \mathbb{P}\left(\hat{\Omega}\right)=1.</math></center>
De plus, les quelques lignes qui précèdent montrent que
De plus, les quelques lignes qui précèdent montrent que
<center><math>\ \hat{\Omega}\subset\tilde{\Omega},</math></center>
<center><math>\ \hat{\Omega}\subset\tilde{\Omega},</math></center>
et il suit donc que
et il suit donc que
<center><math>\ \mathbb{P}\left(\tilde{\Omega}\right)=1.</math></center>
<center><math>\ \mathbb{P}\left(\tilde{\Omega}\right)=1.</math></center>
Par ailleurs, il est clair que
Par ailleurs, il est clair que
<center><math> \tilde{\Omega}\cap\Omega_{1}\subset\Omega_{2}\text{ et }\tilde{\Omega}\cap\Omega_{2}\subset\Omega_{1}\ .</math></center>
<center><math> \tilde{\Omega}\cap\Omega_{1}\subset\Omega_{2}\text{ et }\tilde{\Omega}\cap\Omega_{2}\subset\Omega_{1}\ .</math></center>
On a donc bien
On a donc bien
<center><math>\left\{\mathbb{P}\left(\Omega_{1}\right)=1\right\}\Leftrightarrow\left\{\mathbb{P}\left(\Omega_{2}\right)=1\right\},\ </math></center>
<center><math>\left\{\mathbb{P}\left(\Omega_{1}\right)=1\right\}\Leftrightarrow\left\{\mathbb{P}\left(\Omega_{2}\right)=1\right\},</math></center>
puisque, par exemple,
puisque, par exemple,
<center><math>\left\{\mathbb{P}\left(\tilde{\Omega}\right)=1\ \textrm{et}\ \mathbb{P}\left(\Omega_{1}\right)=1\right\}\Rightarrow\left\{\mathbb{P}\left(\tilde{\Omega}\cap\Omega_{1}\right)=1\right\}.</math></center>}}
<center><math>\left\{\mathbb{P}\left(\tilde{\Omega}\right)=1\ \textrm{et}\ \mathbb{P}\left(\Omega_{1}\right)=1\right\}\Rightarrow\left\{\mathbb{P}\left(\tilde{\Omega}\cap\Omega_{1}\right)=1\right\}.</math></center>}}
Ligne 224 : Ligne 219 :
1.
1.
</math></center>
</math></center>
L'idée est que plus les variables concernées sont intégrables, i.e. plus la queue de distribution <math>\scriptstyle\ \mathbb{P}\left(\left|X_1-\mathbb{E}(X_1)\right|\ge x\right)</math> décroît rapidement, plus il est facile de démontrer la loi forte des grands nombres à l'aide du [[lemme de Borel-Cantelli]]. Ainsi il est facile de démontrer une forme affaiblie de la loi forte des grands nombres, par exemple sous l'hypothèse que les variables <math>\scriptstyle\ X_n</math> sont i.i.d. bornées, auquel cas<math>\scriptstyle\ \mathbb{P}\left(\left|X_1-\mathbb{E}(X_1)\right|\ge x\right)</math> est nulle pour <math>\scriptstyle\ x</math> assez grand, ou bien sous l'hypothèse, moins brutale, que les variables <math>\scriptstyle\ X_n</math> sont i.i.d. et possèdent un moment d'ordre 4, auquel cas <math>\scriptstyle\ \mathbb{P}\left(\left|X_1-\mathbb{E}(X_1)\right|\ge x\right)=\mathcal{O}\left(x^{-4}\right)</math>. Ici, en tronquant les <math>\scriptstyle\ X_n</math>, Kolmogorov s'est ramené à des variables <math>\scriptstyle\ X^{\prime}_n</math> bornées et indépendantes, ''mais qui n'ont pas même loi.''
L'idée est que plus les variables concernées sont intégrables, i.e. plus la queue de distribution <math>\mathbb{P}\left(\left|X_1-\mathbb{E}(X_1)\right|\ge x\right)</math> décroît rapidement, plus il est facile de démontrer la loi forte des grands nombres à l'aide du [[lemme de Borel-Cantelli]]. Ainsi il est facile de démontrer une forme affaiblie de la loi forte des grands nombres, par exemple sous l'hypothèse que les variables <math>X_n</math> sont indépendantes, identiquement distribuées et bornées, auquel cas <math>\mathbb{P}\left(\left|X_1-\mathbb{E}(X_1)\right|\ge x\right)</math> est nulle pour <math>x</math> assez grand, ou bien sous l'hypothèse, moins brutale, que les variables <math>X_n</math> sont indépendantes et identiquement distribuées et possèdent un moment d'ordre 4, auquel cas
:<math>\mathbb{P}\left(\left|X_1-\mathbb{E}(X_1)\right|\ge x\right)=\mathcal{O}\left(x^{-4}\right)</math>.
Ici, en tronquant les <math>X_n</math>, Kolmogorov s'est ramené à des variables <math>X^{\prime}_n</math> bornées et indépendantes, ''mais qui n'ont pas même loi.''


===2ème étape de la démonstration : recentrage===
=== {{2ème}} étape de la démonstration : recentrage ===


Les <math>\ \scriptstyle X_{k}\ </math> ont beau être centrées, cela n'entraîne pas que les <math>\ \scriptstyle X^{\prime}_{k}\ </math> soient centrées, sauf si on suppose, par exemple, que les <math>\ \scriptstyle X_{k}\ </math> sont symétriques, i.e. sauf si <math>\ \scriptstyle X_{k}\ </math> a même loi que <math>\ \scriptstyle -X_{k}\ </math>. Par exemple, si <math>\ \scriptstyle f_{X_{1}}(x)=e^{-x-1}1_{[-1,+\infty[}(x)\ </math>, alors, dès que <math>\ \scriptstyle n\ge 1,\ </math> <math>\ \scriptstyle X^{\prime}_{k}\ </math> n'est pas centrée. Il est commode, pour la suite, de centrer les <math>\ \scriptstyle X^{\prime}_{k}\ </math> : on pose
Les <math>X_{k}</math> ont beau être centrées, cela n'entraîne pas que les <math>X^{\prime}_{k}</math> soient centrées, sauf si on suppose, par exemple, que les <math>X_{k}</math> sont symétriques, c'est-à-dire sauf si <math>X_{k}</math> a même loi que <math>-X_{k}</math>. Par exemple, si <math>f_{X_{1}}(x)=e^{-x-1}1_{[-1,+\infty[}(x)</math>, alors, dès que <math>n\ge 1,</math> <math>X^{\prime}_{k}</math> n'est pas centrée. Il est commode, pour la suite, de centrer les <math>X^{\prime}_{k}</math> : on pose
<center><math>Z_{k}= X^{\prime}_{k}-\mathbb{E}\left[X^{\prime}_{k}\right],</math></center>
<center><math>Z_{k}= X^{\prime}_{k}-\mathbb{E}\left[X^{\prime}_{k}\right],</math></center>
et
et
<center><math>C_{n}=Z_{1}+Z_{2}+\cdots+Z_{n}.</math></center>
<center><math>C_{n}=Z_{1}+Z_{2}+\cdots+Z_{n}.</math></center>
Alors
Alors
{{Théorème|Proposition 2.|'' Soit une suite <math>\ \scriptstyle \left(X_{n}\right)_{n\ge 1}\ </math> de variables aléatoires indépendantes et de même loi, intégrables. Alors ''
{{Théorème|Proposition 2.|Soit une suite <math>\left(X_{n}\right)_{n\ge 1}</math> de variables aléatoires indépendantes et de même loi, intégrables. Alors
<center><math>\mathbb{P}\left(\omega\in\Omega\ \left|\ \lim_{n}\tfrac{S^{\prime}_{n}(\omega)}n=0\right.\right)
<center><math>
\ \scriptstyle \mathbb{P}\left(\omega\in\Omega\ \left|\ \lim_{n}\tfrac{S^{\prime}_{n}(\omega)}n=0\right.\right)
=
=
1
1
</math></center>
</math></center>
:''est équivalent à''
:est équivalent à
<!--\label{lfgnprime}-->
<!--\label{lfgnprime}-->
<center><math>\mathbb{P}\left(\omega\in\Omega\ \left|\ \lim_{n}\tfrac{C_{n}(\omega)}n=0\right.\right)
<center><math>
\ \scriptstyle \mathbb{P}\left(\omega\in\Omega\ \left|\ \lim_{n}\tfrac{C_{n}(\omega)}n=0\right.\right)
=
=
1.
1.
Ligne 248 : Ligne 243 :
}}
}}


{{Démonstration| Un calcul simple donne que
{{Démonstration| Un calcul simple donne que
<center><math>\begin{align}
<center><math>\begin{align}
\frac{S^{\prime}_{n}(\omega)}n-\frac{C_{n}(\omega)}n
\frac{S^{\prime}_{n}(\omega)}n-\frac{C_{n}(\omega)}n
Ligne 255 : Ligne 250 :
\end{align}
\end{align}
</math></center>
</math></center>
la différence ne dépendant pas de <math>\ \scriptstyle \omega\ </math> (n'étant pas aléatoire). Par ailleurs
la différence ne dépendant pas de <math>\omega</math> (n'étant pas aléatoire). Par ailleurs
<center><math>\lim_{n}\mathbb{E}\left[X^{\prime}_{n}\right]=\lim_{n}\mathbb{E}\left[X_{n}1_{\left|X_{n}\right|\le n}\right]=\lim_{n}\mathbb{E}\left[X_{1}1_{\left|X_{1}\right|\le n}\right]=0.</math></center>
<center><math>\lim_{n}\mathbb{E}\left[X^{\prime}_{n}\right]=\lim_{n}\mathbb{E}\left[X_{n}1_{\left|X_{n}\right|\le n}\right]=\lim_{n}\mathbb{E}\left[X_{1}1_{\left|X_{1}\right|\le n}\right]=0.</math></center>
En effet <math>\ \scriptstyle X_{1}\ </math> et <math>\ \scriptstyle X_{n}\ </math> ont même loi, et, d'autre part, pour tout <math>\ \scriptstyle \omega\in\Omega\ </math>,
En effet <math>X_{1}</math> et <math>X_{n}</math> ont même loi, et, d'autre part, pour tout <math>\omega\in\Omega</math>,
<center><math>\begin{align}
<center><math>\begin{align}
\lim_{n}X_{1}(\omega)1_{\left|X_{1}(\omega)\right|\le n}
\lim_{n}X_{1}(\omega)1_{\left|X_{1}(\omega)\right|\le n}
Ligne 270 : Ligne 265 :
On peut donc appliquer le [[Théorème de convergence dominée|Théorème de convergence dominée de Lebesgue]], et obtenir
On peut donc appliquer le [[Théorème de convergence dominée|Théorème de convergence dominée de Lebesgue]], et obtenir
<center><math>\lim_{n}\mathbb{E}\left[X^{\prime}_{n}\right]=\lim_{n}\mathbb{E}\left[X_{1}1_{\left|X_{1}\right|\le n}\right]=\mathbb{E}\left[\lim_{n}\,X_{1}1_{\left|X_{1}\right|\le n}\right]=\mathbb{E}\left[X_{1}\right]=0.</math></center>
<center><math>\lim_{n}\mathbb{E}\left[X^{\prime}_{n}\right]=\lim_{n}\mathbb{E}\left[X_{1}1_{\left|X_{1}\right|\le n}\right]=\mathbb{E}\left[\lim_{n}\,X_{1}1_{\left|X_{1}\right|\le n}\right]=\mathbb{E}\left[X_{1}\right]=0.</math></center>
Finalement, on sait, en vertu du [[Lemme de Cesàro#Lemme de Cesàro|lemme de Cesàro]], que la convergence d'une suite (<math>\ \scriptstyle u_{n}\rightarrow\ell\ </math>) entraîne sa convergence ''en moyenne de Cesàro'' (<math>\ \scriptstyle \frac{u_{1}+u_{2}+\dots+u_{n}}n\rightarrow\ell\ </math>), donc, pour tout <math>\ \scriptstyle \omega\in\Omega\ </math>,
Finalement, on sait, en vertu du [[Lemme de Cesàro#Lemme de Cesàro|lemme de Cesàro]], que la convergence d'une suite (<math>u_{n}\rightarrow\ell</math>) entraîne sa convergence ''en moyenne de Cesàro'' (<math>\frac{u_{1}+u_{2}+\dots+u_{n}}n\rightarrow\ell</math>), donc, pour tout <math>\omega\in\Omega</math>,
<center><math>\begin{align}
<center><math>\begin{align}
\lim_{n}\frac{S^{\prime}_{n}(\omega)}n-\frac{C_{n}(\omega)}n
\lim_{n}\frac{S^{\prime}_{n}(\omega)}n-\frac{C_{n}(\omega)}n
Ligne 280 : Ligne 275 :
}}
}}


===3ème étape : [[Inégalité de Kolmogorov]]===
=== {{3e}} étape : [[Inégalité de Kolmogorov]] ===
C'est l'étape où Kolmogorov utilise l'hypothèse d'''[[Indépendance (probabilités)|indépendance]]'' (et, sans le dire, la notion de [[temps d'arrêt]]). Par contre, l'Inégalité de Kolmogorov ''ne requiert pas'' des variables de même loi.
C'est l'étape où Kolmogorov utilise l'hypothèse d'''[[Indépendance (probabilités)|indépendance]]'' (et, sans le dire, la notion de [[temps d'arrêt]]). Par contre, l'Inégalité de Kolmogorov ''ne requiert pas'' des variables de même loi.
{{Théorème|Inégalité de Kolmogorov.|''Soit une suite <math>\ \scriptstyle \left(Y_{n}\right)_{n\ge 1}\ </math> de v.a.r. indépendantes et centrées. Posons''
{{Théorème|Inégalité de Kolmogorov.|Soit une suite <math>\left(Y_{n}\right)_{n\ge 1}</math> de v.a.r. indépendantes et centrées. Posons''
<center><math>W_{n}=Y_{1}+Y_{2}+\cdots+Y_{n}.</math></center>
<center><math>W_{n}=Y_{1}+Y_{2}+\cdots+Y_{n}.</math></center>
''Alors, pour tout <math>\ \scriptstyle x>0\ </math>,''
''Alors, pour tout <math>x>0</math>,
<center><math>\mathbb{P}\left(\sup\left\{\left|W_{n}\right|\,|\,n\ge 1\right\}>x\right)\le \frac{\sum_{n\ge 1}\text{Var}\left(Y_{n}\right)}{x^2}.</math></center>
<center><math>\mathbb{P}\left(\sup\left\{\left|W_{n}\right|\,|\,n\ge 1\right\}>x\right)\le \frac{\sum_{n\ge 1}\text{Var}\left(Y_{n}\right)}{x^2}.</math></center>
}}
}}


{{Démonstration|
{{Démonstration|
Si <math>\ \scriptstyle \sum_{n\ge 1}\text{Var}\left(Y_{n}\right)=+\infty\ </math>, l'inégalité est vérifiée. Dans la suite, on suppose que
Si <math>\textstyle \sum_{n\ge 1}\text{Var}\left(Y_{n}\right)=+\infty</math>, l'inégalité est vérifiée. Dans la suite, on suppose que
<center><math>\sum_{n\ge 1}\text{Var}\left(Y_{n}\right)<+\infty.</math></center>
<center><math>\sum_{n\ge 1}\text{Var}\left(Y_{n}\right)<+\infty.</math></center>
On pose
On pose
Ligne 299 : Ligne 294 :
\inf\left\{k\ge 1\ |\ \left|W_{k}\right|>x\right\}&\ \ &\text{sinon.}
\inf\left\{k\ge 1\ |\ \left|W_{k}\right|>x\right\}&\ \ &\text{sinon.}
\end{array}\right.</math></center>
\end{array}\right.</math></center>
On remarque alors que, pour <math>\ \scriptstyle k\le n\ </math>,
On remarque alors que, pour <math>k\le n</math>,
<center><math>
<center><math>
W_{k}1_{\sigma=k}\ \bot\ W_{n}-W_{k}.
W_{k}1_{\sigma=k}\ \bot\ W_{n}-W_{k}.
</math></center>
</math></center>
En effet <math>\ \scriptstyle W_{n}-W_{k}=Y_{k+1}+Y_{k+2}+\dots+Y_{n}\ </math>, alors que
En effet <math>W_{n}-W_{k}=Y_{k+1}+Y_{k+2}+\dots+Y_{n}</math>, alors que
<center><math>\begin{align}
<center><math>\begin{align}
\left\{\sigma=k\right\}
\left\{\sigma=k\right\}
Ligne 313 : Ligne 308 :
\end{align}
\end{align}
</math></center>
</math></center>
Ainsi pour deux boréliens quelconques <math>\ \scriptstyle A\ </math> et <math>\ \scriptstyle B\ </math>, les deux évènements
Ainsi pour deux boréliens quelconques <math>A</math> et <math>B</math>, les deux évènements
<center><math>\left\{W_{k}1_{\sigma=k}\in A\right\}\text{ et }\left\{W_{n}-W_{k}\in B\right\}</math></center>
<center><math>\left\{W_{k}1_{\sigma=k}\in A\right\}\text{ et }\left\{W_{n}-W_{k}\in B\right\}</math></center>
appartiennent aux tribus <math>\ \scriptstyle \sigma\left(Y_{1},Y_{2},\dots,Y_{k}\right)\ </math> et <math>\ \scriptstyle \sigma\left(Y_{k+1},Y_{k+2},\dots,Y_{n}\right)\ </math>, respectivement. Ils sont donc indépendants en vertu du [[Indépendance (probabilités)#Lemme de regroupement|lemme de regroupement]], ce qui implique bien <math>\ \scriptstyle
appartiennent aux tribus <math>\sigma\left(Y_{1},Y_{2},\dots,Y_{k}\right)</math> et <math>\sigma\left(Y_{k+1},Y_{k+2},\dots,Y_{n}\right)</math>, respectivement. Ils sont donc indépendants en vertu du [[lemme de regroupement]], ce qui implique bien <math>
W_{k}1_{\sigma=k}\ \bot\ W_{n}-W_{k}
W_{k}1_{\sigma=k}\ \bot\ W_{n}-W_{k}
</math>. On a
</math>. On a
Ligne 348 : Ligne 343 :
\end{align}
\end{align}
</math></center>
</math></center>
où la troisième ''inégalité'' s'obtient en développant le carré en deux termes carrés (dont l'un est supprimé pour minorer l'expression précédente) et un double produit (de deux variables indépendantes, en vertu de <math>\ \scriptstyle
où la troisième ''inégalité'' s'obtient en développant le carré en deux termes carrés (dont l'un est supprimé pour minorer l'expression précédente) et un double produit (de deux variables indépendantes, en vertu de <math>
W_{k}1_{\sigma=k}\ \bot\ W_{n}-W_{k}
W_{k}1_{\sigma=k}\ \bot\ W_{n}-W_{k}
</math>). L'égalité suivante tient à ce que <math>\ \scriptstyle W_{n}-W_{k}\ </math> est centrée (comme somme de v.a. centrées), et la dernière ''inégalité'' découle de la définition du [[temps d'arrêt]] <math>\ \scriptstyle \sigma\ </math> : par définition, au temps <math>\ \scriptstyle \sigma\ </math>, on a
</math>). L'égalité suivante tient à ce que <math>W_{n}-W_{k}</math> est centrée (comme somme de v.a. centrées), et la dernière ''inégalité'' découle de la définition du [[temps d'arrêt]] <math>\sigma</math> : par définition, au temps <math>\sigma</math>, on a
<math>\ \scriptstyle W_{\sigma}>x\ </math>. En faisant tendre <math>\ \scriptstyle n\ </math> vers l'infini on obtient
<math>W_{\sigma}>x</math>. En faisant tendre <math>n</math> vers l'infini on obtient
<center><math>\begin{align}
<center><math>\begin{align}
\sum_{k\ge 1}\,\text{Var}\left(Y_{k}\right)
\sum_{k\ge 1}\,\text{Var}\left(Y_{k}\right)
Ligne 367 : Ligne 362 :
}}
}}


==={{ancre|demo_originelle_cv_va}}4ème étape : Convergence de séries de variables aléatoires===
=== {{ancre|demo_originelle_cv_va}}{{4ème}} étape : Convergence de séries de variables aléatoires ===


L'[[Loi forte des grands nombres#3ème étape : Inégalité de Kolmogorov|inégalité de Kolmogorov]] est, avec le [[lemme de Borel-Cantelli]], l'ingrédient essentiel de la preuve de la proposition suivante :
L'[[#3ème étape : Inégalité de Kolmogorov|inégalité de Kolmogorov]] est, avec le [[lemme de Borel-Cantelli]], l'ingrédient essentiel de la preuve de la proposition suivante :
{{Théorème|Proposition 3.|'' Soit une suite <math>\ \ \scriptstyle \left(U_{n}\right)_{n\ge 1}\ </math> de v.a.r. indépendantes et centrées. Si ''
{{Théorème|Proposition 3.|Soit une suite <math>\left(U_{n}\right)_{n\ge 1}</math> de variables aléatoires indépendantes et centrées. Si
<center><math>\sum_{n\ge 1}\text{Var}\left(U_{n}\right)<+\infty,</math></center>
<center><math>\sum_{n\ge 1}\text{Var}\left(U_{n}\right)<+\infty,</math></center>
''alors la suite <math>\ \scriptstyle T_{n}=U_{1}+U_{2}+\cdots+U_{n}\ </math> est [[presque sûrement]] convergente, ou bien, équivalemment, la série <math>\ \scriptstyle \sum_{n\ge 1}\ U_{n}\ </math> est [[presque sûrement]] convergente.''
alors la suite <math>T_{n}=U_{1}+U_{2}+\cdots+U_{n}</math> est [[presque sûrement]] convergente, ou bien, de manière équivalente, la série <math>\textstyle \sum_{n\ge 1}\ U_{n}</math> est [[presque sûrement]] convergente.
}}
}}


{{Démonstration|
{{Démonstration|
On pose
On pose
<center><math>r_{M}=\sum_{k> M}\text{Var}\left(U_{k}\right).</math></center>
<center><math>r_{M}=\sum_{k> M}\text{Var}\left(U_{k}\right).</math></center>
En vertu de la convergence de la série de terme général <math>\ \scriptstyle \text{Var}\left(U_{k}\right)\ </math>, la suite <math>\ \scriptstyle (r_{M})_{M\ge 1}\ </math> converge vers 0.
En vertu de la convergence de la série de terme général <math>\text{Var}\left(U_{k}\right)</math>, la suite <math>(r_{M})_{M\ge 1}</math> converge vers 0.
On applique l'inégalité de Kolmogorov à la suite
On applique l'inégalité de Kolmogorov à la suite
<center><math>
<center><math>
Y_{n}=U_{M+n}.
Y_{n}=U_{M+n}.
</math></center>
</math></center>
Avec les notations de l'inégalité de Kolmogorov, on a
Avec les notations de l'inégalité de Kolmogorov, on a
<center><math>\begin{align}
<center><math>\begin{align}
W_{n}
W_{n}
Ligne 394 : Ligne 389 :
\end{align}
\end{align}
</math></center>
</math></center>
Donc l'inégalité de Kolmogorov nous donne, pour tout <math>\ \scriptstyle x>0\ </math> et <math>\ \scriptstyle M\ge 1\ </math>,
Donc l'inégalité de Kolmogorov nous donne, pour tout <math>x>0</math> et <math>M\ge 1</math>,
<center><math>\mathbb{P}\left(\sup_{n\ge 1}\left|T_{M+n}-T_{M}\right|>x\right)\le\frac{r_{M}}{x^2}.</math></center>
<center><math>\mathbb{P}\left(\sup_{n\ge 1}\left|T_{M+n}-T_{M}\right|>x\right)\le\frac{r_{M}}{x^2}.</math></center>
Notons que la suite de variables aléatoires <math>\ \scriptstyle (V_{M})_{M\ge 0}\ </math>, définie par
Notons que la suite de variables aléatoires <math>(V_{M})_{M\ge 0}</math>, définie par
<center><math>
<center><math>
\begin{align}
\begin{align}
Ligne 407 : Ligne 402 :
\end{align}
\end{align}
</math></center>
</math></center>
est décroissante, puisque la suite d'ensembles <math>\ \scriptstyle (C_{M})_{M\ge 0}\ </math>, définie par
est décroissante, puisque la suite d'ensembles <math>(C_{M})_{M\ge 0}</math>, définie par
<center><math>
<center><math>
C_M=\{\left|T_{k}-T_{\ell}\right|\ |\ k,\ell> M\},
C_M=\{\left|T_{k}-T_{\ell}\right|\ |\ k,\ell> M\},
</math></center>
</math></center>
est décroissante. De plus <math>\ \scriptstyle V_{M}\ </math> satisfait à
est décroissante. De plus <math>V_{M}</math> satisfait à
<center><math>
<center><math>
\begin{align}
\begin{align}
Ligne 422 : Ligne 417 :
\end{align}
\end{align}
</math></center>
</math></center>
On en déduit que, pour tout <math>\ \scriptstyle k,M\ge 1\ </math>,
On en déduit que, pour tout <math> k,M\ge 1</math>,
<center><math>
<center><math>
\begin{align}
\begin{align}
Ligne 433 : Ligne 428 :
\end{align}
\end{align}
</math></center>
</math></center>
La suite <math>\ \scriptstyle (r_{M})_{M\ge 1}\ </math> convergeant vers 0, il suit que, pour tout <math>\ \scriptstyle k\ge 1\ </math>, on peut choisir <math>\ \scriptstyle M(k)>M(k-1)\ </math> tel que
La suite <math> (r_{M})_{M\ge 1}</math> convergeant vers 0, il suit que, pour tout <math> k\ge 1</math>, on peut choisir <math> M(k)>M(k-1)</math> tel que
<center><math>
<center><math>
\mathbb{P}\left(V_{M(k)}>\tfrac1k\right)
\mathbb{P}\left(V_{M(k)}>\tfrac1k\right)
Ligne 441 : Ligne 436 :
Ainsi
Ainsi
<center><math>\sum_{k}\mathbb{P}\left(V_{M(k)}>\tfrac1k\right)<+\infty,</math></center>
<center><math>\sum_{k}\mathbb{P}\left(V_{M(k)}>\tfrac1k\right)<+\infty,</math></center>
et le [[lemme de Borel-Cantelli]] entraîne que, presque sûrement, à partir d'un certain rang, <math>\ \scriptstyle V_{M(k)}\ </math> est majorée par <math>\ \scriptstyle \tfrac1k,\ </math> et donc que <math>\ \scriptstyle V_{M(k)}\ </math> converge presque sûrement vers 0. Par ailleurs, on a vu plus haut que pour tout <math>\ \scriptstyle \omega\ </math>, <math>\ \scriptstyle V_{M}(\omega)\ </math> est une suite décroissante en <math>\ \scriptstyle M.\ </math> Une suite décroissante possédant une sous-suite convergente est elle-même convergente, donc <math>\ \scriptstyle V_{M}\ </math> converge presque sûrement vers 0. Or
et le [[lemme de Borel-Cantelli]] entraîne que, presque sûrement, à partir d'un certain rang, <math> V_{M(k)}</math> est majorée par <math> \tfrac1k,</math> et donc que <math> V_{M(k)}</math> converge presque sûrement vers 0. Par ailleurs, on a vu plus haut que pour tout <math> \omega</math>, <math> V_{M}(\omega)</math> est une suite décroissante en <math> M.</math> Une suite décroissante possédant une sous-suite convergente est elle-même convergente, donc <math> V_{M}</math> converge presque sûrement vers 0. Or
<center><math>
<center><math>
\begin{align}
\begin{align}
Ligne 458 : Ligne 453 :
}}
}}


===5ème étape : [[Lemme de Kronecker]]===
=== {{5e}} étape : [[Lemme de Kronecker]] ===


{{Théorème|Lemme de Kronecker.|''Soit une suite <math>\ \scriptstyle \left(a_{n}\right)_{n\ge 1}\ </math> de nombres strictement positifs, décroissante vers 0. Si <math>\ \scriptstyle \sum_{n}a_{n}u_{n}\ </math> est une série convergente, alors''
{{Théorème|Lemme de Kronecker.|Soit une suite <math> \left(a_{n}\right)_{n\ge 1}</math> de nombres strictement positifs, décroissante vers 0. Si <math> \textstyle \sum_{n}a_{n}u_{n}</math> est une série convergente, alors
<center><math>\lim_{n}a_{n}\left(u_{1}+u_{2}+\cdots+u_{n}\right)=0.</math></center>
<center><math>\lim_{n}a_{n}\left(u_{1}+u_{2}+\cdots+u_{n}\right)=0.</math></center>
}}
}}


{{Démonstration|
{{Démonstration|
La démonstration ci-dessous vaut seulement pour <math>\ \scriptstyle a_{n}=n^{-\beta}\ </math>, <math>\ \scriptstyle \beta>0\ </math>, mais la démonstration de la loi forte utilise le lemme de Kronecker pour <math>\ \scriptstyle a_{n}=n^{-1}\ </math>, <math>\ \scriptstyle \beta=1\ </math>. On peut trouver une démonstration générale du Lemme de Kronecker [[Lemme de Kronecker|ici]].
La démonstration ci-dessous vaut seulement pour <math> a_{n}=n^{-\beta}</math>, <math> \beta>0</math>, mais la démonstration de la loi forte utilise le lemme de Kronecker pour <math> a_{n}=n^{-1}</math>, <math> \beta=1</math>. On peut trouver une démonstration générale du Lemme de Kronecker [[Lemme de Kronecker|ici]].
Posons
Posons
<center><math>b_{n}=a_{n}u_{n}=n^{-\beta}u_{n}\ \text{ et }\ b=\sum_{n\ge 1}b_{n}.</math></center>
<center><math>b_{n}=a_{n}u_{n}=n^{-\beta}u_{n}\ \text{ et }\ b=\sum_{n\ge 1}b_{n}.</math></center>
Ligne 489 : Ligne 484 :
\end{align}
\end{align}
</math></center>
</math></center>
Comme la suite <math>\ \scriptstyle \left(\sum_{1\le k\le n}\ b_{k}\right)_{n}\ </math> est convergente, il existe un réel <math>\ \scriptstyle M \ </math> tel que
Comme la suite <math> \left(\sum_{1\le k\le n}\ b_{k}\right)_{n}</math> est convergente, il existe un réel <math> M </math> tel que
<center><math>\forall n\ge 1,\ \left|\sum_{1\le k\le n}\ b_{k}\right|\le M.</math></center>
<center><math>\forall n\ge 1,\ \left|\sum_{1\le k\le n}\ b_{k}\right|\le M.</math></center>
Donc la suite de fonctions <math>\ \scriptstyle (\phi_{n})_{n} \ </math> définies sur <math>\ \scriptstyle [0,1] \ </math> par
Donc la suite de fonctions <math> (\phi_{n})_{n} </math> définies sur <math> [0,1] </math> par
<center><math>\phi_{n}(x)=\sum_{1\le k\le nx}\ b_{k}</math></center>
<center><math>\phi_{n}(x)=\sum_{1\le k\le nx}\ b_{k}</math></center>
est une suite de fonctions uniformément bornées par <math>\ \scriptstyle M \ </math> (en valeur absolue). De plus, pour tout <math>\ \scriptstyle x\in[0,1] \ </math>,
est une suite de fonctions uniformément bornées par <math> M </math> (en valeur absolue). De plus, pour tout <math> x\in[0,1] </math>,
<center><math>\lim_{n}\phi_{n}(x)=b\ 1_{x>0}.</math></center>
<center><math>\lim_{n}\phi_{n}(x)=b\ 1_{x>0}.</math></center>
Ainsi le [[Théorème de convergence dominée|théorème de convergence dominée de Lebesgue]] donne
Ainsi le [[Théorème de convergence dominée|théorème de convergence dominée de Lebesgue]] donne
Ligne 506 : Ligne 501 :
\end{align}
\end{align}
</math></center>
</math></center>
Comme on a <math>\ \scriptstyle \lim_{n}\sum_{k=1}^nb_{k}=b \ </math>, en observant le second terme de l'identité
Comme on a <math> \lim_{n}\sum_{k=1}^nb_{k}=b </math>, en observant le second terme de l'identité
<center><math>
<center><math>
-a_{n}\left(u_{1}+u_{2}+\cdots+u_{n}\right)+\sum_{k=1}^nb_{k}
-a_{n}\left(u_{1}+u_{2}+\cdots+u_{n}\right)+\sum_{k=1}^nb_{k}
Ligne 518 : Ligne 513 :
Cette démonstration est empruntée à Sydney Resnik, ''A probability path''.
Cette démonstration est empruntée à Sydney Resnik, ''A probability path''.
}}
}}
Pour conclure sa démonstration, Kolmogorov utilise le [[lemme de Kronecker]] avec <math>\ \scriptstyle a_{n}=\tfrac{1}{n} \ </math>, voir section suivante.
Pour conclure sa démonstration, Kolmogorov utilise le [[lemme de Kronecker]] avec <math> a_{n}=\tfrac{1}{n} </math>, voir section suivante.


===6ème étape : Conclusion dans le cas de variables centrées===
=== {{6e}} étape : Conclusion dans le cas de variables centrées ===


{{Théorème|Lemme 1.| ''Avec les notations de l'étape '''[[Loi forte des grands nombres#2ème étape de la démonstration : recentrage|« recentrage »]]''', on a''
{{Théorème|Lemme 1.|Avec les notations de l'étape '''[[#2ème étape de la démonstration : recentrage|« recentrage »]]''', on a
<center><math>\sum_{k\ge 1}\ \text{Var}\left(\frac{Z_{k}}{k}\right)<+\infty.</math></center>
<center><math>\sum_{k\ge 1}\ \text{Var}\left(\frac{Z_{k}}{k}\right)<+\infty.</math></center>
}}
}}


{{Démonstration|
{{Démonstration|
Les calculs s'arrangent mieux si on remplace <math>\ \scriptstyle k \ </math> par <math>\ \scriptstyle k+1 \ </math> au dénominateur. Pour <math>\ \scriptstyle k\ge 2 \ </math> on a
Les calculs s'arrangent mieux si on remplace <math> k </math> par <math> k+1 </math> au dénominateur. Pour <math> k\ge 2 </math> on a
<center><math>
<center><math>
\text{Var}\left(\frac{Z_{k}}{k+1}\right)\
\text{Var}\left(\frac{Z_{k}}{k+1}\right)\
Ligne 535 : Ligne 530 :
\ \frac{\mathbb{E}\left[X^{\prime}_{k}\right]^2}{(k+1)^2}.
\ \frac{\mathbb{E}\left[X^{\prime}_{k}\right]^2}{(k+1)^2}.
</math></center>
</math></center>
Comme <math>\ \scriptstyle \lim_{n} \mathbb{E}\left[X^{\prime}_{n}\right]=0 \ </math>,
Comme <math> \lim_{n} \mathbb{E}\left[X^{\prime}_{n}\right]=0 </math>,
<center><math>\frac{\mathbb{E}\left[X^{\prime}_{k}\right]^2}{(k+1)^2}=o\left(\frac{1}{k^2}\right),</math></center>
<center><math>\frac{\mathbb{E}\left[X^{\prime}_{k}\right]^2}{(k+1)^2}=o\left(\frac{1}{k^2}\right),</math></center>
et la convergence de la série
et la convergence de la série
<center><math>\sum_{k}\ \text{Var}\left(\frac{Z_{k}}{k+1}\right)</math></center>
<center><math>\sum_{k}\ \text{Var}\left(\frac{Z_{k}}{k+1}\right)</math></center>
est équivalente à la convergence de la série
est équivalente à la convergence de la série
<center><math>\sum_{k}\ \frac{\mathbb{E}\left[X^{\prime 2}_{k}\right]}{(k+1)^2}.</math></center>
<center><math>\sum_{k}\ \frac{\mathbb{E}\left[X^{\prime 2}_{k}\right]}{(k+1)^2}.</math></center>
Or
Or
<center><math>
<center><math>
\begin{align}
\begin{align}
Ligne 572 : Ligne 567 :
}}
}}


Du ''Lemme 1'' et de la ''[[Loi forte des grands nombres#4ème étape : Convergence de séries de variables aléatoires|Proposition 3]]'', on déduit que, presque sûrement,
Du lemme 1 et de la ''[[#4ème étape : Convergence de séries de variables aléatoires|Proposition 3]]'', on déduit que, presque sûrement,
<!--\label{serieconv}-->
<!--\label{serieconv}-->
<center><math>
<center><math>
\text{la série }\sum_{k\ge 1}\,\frac{Z_{k}(\omega)}{k}\text{ est convergente,}
\text{la série }\sum_{k\ge 1}\,\frac{Z_{k}(\omega)}{k}\text{ est convergente,}
</math></center>
</math></center>
puis, grâce au ''[[Loi forte des grands nombres#5ème étape : Lemme de Kronecker|lemme de Kronecker]]'', on déduit que, presque sûrement,
puis, grâce au ''[[#5ème étape : Lemme de Kronecker|lemme de Kronecker]]'', on déduit que, presque sûrement,
<center><math>\lim_{n}\ \frac{C_{n}(\omega)}n\ =\ 0,</math></center>
<center><math>\lim_{n}\ \frac{C_{n}(\omega)}n\ =\ 0,</math></center>
ce qui est équivalent à la ''loi forte des grands nombres ('''pour des variables centrées''')'', comme on l'a vu aux étapes ''[[Loi forte des grands nombres#1ère étape de la démonstration : troncature|« troncature »]]'' et ''[[Loi forte des grands nombres#2ème étape de la démonstration : recentrage|« recentrage »]]''.
ce qui est équivalent à la ''loi forte des grands nombres ('''pour des variables centrées''')'', comme on l'a vu aux étapes ''[[#1ère étape de la démonstration : troncature|« troncature »]]'' et ''[[#2ème étape de la démonstration : recentrage|« recentrage »]]''.


===7ème étape : décentrage===
=== {{7e}} étape : décentrage ===


Si on ne suppose plus les <math>\ \scriptstyle X_{n} \ </math> centrées, mais seulement i.i.d. et intégrables, on pose
Si on ne suppose plus les <math> X_{n} </math> centrées, mais seulement indépendantes, identiquement distribuées et intégrables, on pose
<center><math>\hat{X}_{k}= X_{k}-\mathbb{E}\left[X_{k}\right],\ \ \hat{S}_{n}= \hat{X}_{1}+\hat{X}_{2}+\cdots+\hat{X}_{n},</math></center>
<center><math>\hat{X}_{k}= X_{k}-\mathbb{E}\left[X_{k}\right],\ \ \hat{S}_{n}= \hat{X}_{1}+\hat{X}_{2}+\cdots+\hat{X}_{n},</math></center>
et, les <math>\ \scriptstyle \hat{X}_{n} \ </math> étant centrées, i.i.d. et intégrables, la conclusion des étapes précédentes est que
et, les <math> \hat{X}_{n} </math> étant centrées, indépendantes, identiquement distribuées et intégrables, la conclusion des étapes précédentes est que
<center><math>
<center><math>
\mathbb{P}\left(\omega\in\Omega\ \left|\ \lim_{n}\frac{\hat{S}_{n}(\omega)}n=0\right.\right)
\mathbb{P}\left(\omega\in\Omega\ \left|\ \lim_{n}\frac{\hat{S}_{n}(\omega)}n=0\right.\right)
Ligne 591 : Ligne 586 :
1.
1.
</math></center>
</math></center>
Mais
Mais
<center><math>
<center><math>
\begin{align}
\begin{align}
Ligne 611 : Ligne 606 :
C.Q.F.D.
C.Q.F.D.


===Réciproque===
=== Réciproque ===


Supposons que l'ensemble ''Ω{{ind|c}}'' défini par
Supposons que l'ensemble Ω''{{ind|c}}'' défini par
<center><math>
<center><math>
\Omega_c=\left\{\omega\in\Omega\ \left|\ \frac{S_{n}(\omega)}n \text{ est une suite convergente }\right.\right\}
\Omega_c=\left\{\omega\in\Omega\ \left|\ \frac{S_{n}(\omega)}n \text{ est une suite convergente }\right.\right\}
</math></center>
</math></center>
est de probabilité 1. Notons <math>\scriptstyle\ \ell(\omega)\ </math> la limite de la suite ci-dessus, lorsqu'elle est définie, i.e. lorsqu'''ω'' appartient à ''Ω{{ind|c}}''. L'ensemble ''Ω{{ind|c}}'' est inclus dans l'ensemble suivant
est de probabilité 1. Notons <math>\ell(\omega)</math> la limite de la suite ci-dessus, lorsqu'elle est définie, i.e. lorsqu'''ω'' appartient à Ω''{{ind|c}}''. L'ensemble Ω''{{ind|c}}'' est inclus dans l'ensemble suivant
<center><math>
<center><math>
\Omega_0=\left\{\omega\in\Omega\ \left|\ \lim_n\frac{|X_{n}(\omega)|}n=0\right.\right\}
\Omega_0=\left\{\omega\in\Omega\ \left|\ \lim_n\frac{|X_{n}(\omega)|}n=0\right.\right\}
</math></center>
</math></center>
puisque, lorsque ''ω'' appartient à ''Ω{{ind|c}}'', on a
puisque, lorsque ''ω'' appartient à Ω''{{ind|c}}'', on a
<center><math>
<center><math>
\frac{X_{n}(\omega)}n\ =\ \frac{S_{n}(\omega)}n\ -\ \frac{n-1}n\,\frac{S_{n-1}(\omega)}{n-1}\ \rightarrow\ \ell(\omega)-\left(1\times\ell(\omega)\right)=0.
\frac{X_{n}(\omega)}n\ =\ \frac{S_{n}(\omega)}n\ -\ \frac{n-1}n\,\frac{S_{n-1}(\omega)}{n-1}\ \rightarrow\ \ell(\omega)-\left(1\times\ell(\omega)\right)=0.
</math></center>
</math></center>
Ainsi, l'ensemble ''Ω<sub>0</sub>'' lui aussi est de probabilité 1. Posons
Ainsi, l'ensemble Ω<sub>0</sub> lui aussi est de probabilité 1. Posons
<center><math>
<center><math>
A_n=\left\{\omega\in\Omega\ \left|\ |X_{n}(\omega)|>n\right.\right\}
A_n=\left\{\omega\in\Omega\ \left|\ |X_{n}(\omega)|>n\right.\right\}
</math>.</center>
</math>.</center>
La [[Théorème de Borel-Cantelli#Limite supérieure d'ensembles|limite supérieure]] des ''A{{ind|n}}'' est disjointe de l'ensemble ''Ω<sub>0 </sub>'', donc elle est de probabilité nulle. En vertu de la [[loi du zéro-un de Borel]], on en déduit, puisque les événements ''A{{ind|n}}'' sont indépendants, que
La [[Théorème de Borel-Cantelli#Limite supérieure d'ensembles|limite supérieure]] des ''A{{ind|n}}'' est disjointe de l'ensemble Ω<sub>0 </sub>, donc elle est de probabilité nulle. En vertu de la [[loi du zéro-un de Borel]], on en déduit, puisque les événements ''A{{ind|n}}'' sont indépendants, que
<center><math>
<center><math>
+\infty>\sum_{n\ge 1}\mathbb{P}\left(|X_{n}|>n\right).
+\infty>\sum_{n\ge 1}\mathbb{P}\left(|X_{n}|>n\right).
Ligne 638 : Ligne 633 :
</math></center>
</math></center>


==Notes et références ==
== Notes et références ==
{{Références}}
{{Références}}


Ligne 652 : Ligne 647 :


=== Références ===
=== Références ===
*{{Ouvrage|langue= anglais |prénom1= Halbert |nom1= White |lien auteur1=|titre= Asymptotic Theory for Econometricians |sous-titre=|lien titre=|numéro d'édition=|lien éditeur=|éditeur= Academic Press |lieu= Orlando |année= 1984 |tome=|volume=|pages totales=|isbn= 978-0-12-746650-7 |lccn= 83010010 |passage= 228 |lire en ligne=|consulté le=}}
* {{Ouvrage|langue=en|prénom1=Halbert|nom1=White|titre=Asymptotic Theory for Econometricians|lieu=Orlando|éditeur=[[Academic Press]]|année=1984|pages totales=228|passage=228|isbn=978-0-12-746650-7|lccn=83010010}}
*{{resnick}}
* {{resnick}}


=== Liens externes ===
=== Liens externes ===
* [http://www.kolmogorov.com/ Le site officiel en l'honneur d'Andreï Kolmogorov]
* [http://www.mathematik.com/Kolmogorov/ Un site sur son livre fondateur de la théorie moderne des probabilités, '''Grundbegriffe der Wahrscheinlichkeitsrechnung''', 1933]
* [http://www.mathematik.com/Kolmogorov/ Un site sur son livre fondateur de la théorie moderne des probabilités, '''Grundbegriffe der Wahrscheinlichkeitsrechnung''', 1933]
* [http://www.mathematik.com/Kolmogorov/0037.html La page de ce livre où apparait sa démonstration de la loi forte des grands nombres]
* [http://www.mathematik.com/Kolmogorov/0037.html La page de ce livre où apparait sa démonstration de la loi forte des grands nombres]
* [http://experiences.math.cnrs.fr/Illustration-de-la-loi-des-grands-95.html Expériences numérique interactive en javascript], experiences.math.cnrs.fr
* [http://experiences.math.cnrs.fr/Illustration-de-la-loi-des-grands-95.html Expériences numérique interactive en javascript], experiences.math.cnrs.fr
{{Portail probabilités et statistiques}}
{{Portail|probabilités et statistiques}}


[[Catégorie:Théorème de la théorie des probabilités|Forte]]
[[Catégorie:Théorème de la théorie des probabilités|Forte]]
[[Catégorie:Loi de probabilité]]

Dernière version du 4 juin 2024 à 18:55

Une loi forte des grands nombres est une loi mathématique selon laquelle la moyenne des n premiers termes d'une suite de variables aléatoires converge presque sûrement vers une constante (non aléatoire), lorsque n tend vers l'infini. Lorsque ces variables ont même espérance, par exemple lorsqu'elles ont toutes la même loi, cette limite constante est l'espérance commune à toutes les variables aléatoires de cette suite. La loi forte est vérifiée sous diverses conditions de dépendance et d'intégrabilité portant sur les variables aléatoires de la suite.

Les exemples les plus célèbres concernent la proportion de résultats pile ou face lors des n premiers lancers d'une série potentiellement infinie de lancers (cette proportion converge presque sûrement vers 0,5), ou la proportion de chiffres 0, 1, 2, ..., 8 ou 9 dans le développement décimal d'un nombre réel tiré au hasard. La première version de la loi forte des grands nombres est due à Émile Borel, qui démontre ainsi, en 1909[1], le théorème des nombres normaux.

Énoncé général

[modifier | modifier le code]

Le principe de la loi forte des grands nombres est que sous certaines conditions (sur la dépendance, sur l'homogénéité et sur les moments) la moyenne d'une suite de variables aléatoires converge presque sûrement vers la même limite (constante) que l'espérance de la moyenne. En particulier, l'adjectif « fort » fait référence à la nature de la convergence établie par ce théorème : il est réservée à un résultat de convergence presque sûre. Par opposition, la loi faible des grands nombres, établie par Bernoulli, est un résultat de convergence en probabilité, seulement. Soit :

Principe général — 

Il existe différents théorèmes selon le type d'hypothèses faites sur la suite [2] :

  • observations indépendantes et identiquement distribuées,
  • observations indépendantes et non identiquement distribuées,
  • observations dépendantes et identiquement distribuées.

Observations indépendantes et identiquement distribuées

[modifier | modifier le code]

Loi forte des grands nombres (Kolmogorov, 1929) — Si est une suite de variables aléatoires indépendantes identiquement distribuées, on a équivalence entre :

(i)
(ii) la suite converge presque sûrement.
De plus, si l'une de ces deux conditions équivalentes est remplie, alors la suite converge presque sûrement vers la constante

C'est la première loi forte à avoir été démontrée avec des hypothèses optimales. Pour la démontrer, il fallait définir rigoureusement le concept de convergence presque sûre, ce qui a amené Kolmogorov à considérer les probabilités comme une branche de la théorie de la mesure, un saut conceptuel dont Kolmogorov prouvait ainsi l'efficacité. La théorie moderne des probabilités s'est construite à partir du travail fondateur de Kolmogorov sur la loi forte des grands nombres. La loi forte des grands nombres est aussi un ingrédient important dans la démonstration d'autres lois fortes des grands nombres, comme le théorème de Glivenko-Cantelli, la LFGN pour les processus de renouvellement, ou la LFGN pour les chaînes de Markov. C'est bien du théorème dû à Kolmogorov que l'on parle lorsqu'on dit « la loi forte des grands nombres », les autres théorèmes n'étant que des lois fortes des grands nombres. Ce théorème est aussi intéressant parce qu'il aboutit à une conclusion plus forte : il établit l'équivalence entre l'intégrabilité de la suite et sa convergence, alors que les autres théorèmes fournissent seulement des implications, sans leurs réciproques. Dans le cas où les termes de la somme sont des variables de Bernoulli, la loi forte des grands nombres a été établie par Émile Borel en 1909. D'autres versions de la loi forte des grands nombres ont succédé à la version due à Borel, jusqu'à la version définitive de Kolmogorov.

Observations indépendantes et non-identiquement distribuées

[modifier | modifier le code]

Théorème de Markov — Soit une suite de variables aléatoires indépendantes d'espérance finie . S'il existe tel que

alors

Pour pouvoir relâcher l'hypothèse d'équidistribution, on est amené à faire une hypothèse plus forte sur l'intégrabilité.

Observations dépendantes et identiquement distribuées

[modifier | modifier le code]

Théorème ergodique — Soit une suite de variables aléatoires stationnaire ergodique avec et d'espérance identique finie . Alors

Loi forte des grands nombres de Kolmogorov

[modifier | modifier le code]

La moyenne empirique d’une suite de variables aléatoires indépendantes, identiquement distribuées, et intégrables, converge presque sûrement vers leur moyenne mathématique (ou espérance).

Autres formulations

[modifier | modifier le code]

On note souvent :

Ainsi l'énoncé devient

Théorème — Pour une suite de variables aléatoires indépendantes et identiquement distribuées, le fait que soit une suite convergente presque-sûrement est équivalent au fait que . De plus, si l'une de ces deux conditions équivalentes est remplie, on a :

Énoncé usuel de la loi forte

[modifier | modifier le code]

L'énoncé ci-dessous est la forme habituelle de la loi forte des grands nombres, et est une conséquence directe (une forme affaiblie) du théorème donné plus haut :

Théorème — Soit une suite de variables aléatoires indépendantes et de même loi, intégrables. Alors

  • En statistiques, ou bien est appelée moyenne empirique des , et est souvent notée .
  • On peut formuler l'hypothèse sous différentes formes :
    • ,
    • ,
  • ou bien encore, puisque les ont toutes même loi,
    • ,
    • ,
    • .

Démonstration de la loi forte de Kolmogorov

[modifier | modifier le code]

1re étape de la démonstration : troncature

[modifier | modifier le code]

On suppose tout d'abord que les variables sont centrées. On n'abandonnera cette hypothèse qu'à la toute dernière étape de la démonstration. On pose

et

Dans cette section on démontre que

Proposition 1. — Soit une suite de variables aléatoires indépendantes et de même loi, intégrables. Alors (la loi forte des grands nombres)

est équivalente à

Dans les sections suivantes on va donc démontrer que

L'idée est que plus les variables concernées sont intégrables, i.e. plus la queue de distribution décroît rapidement, plus il est facile de démontrer la loi forte des grands nombres à l'aide du lemme de Borel-Cantelli. Ainsi il est facile de démontrer une forme affaiblie de la loi forte des grands nombres, par exemple sous l'hypothèse que les variables sont indépendantes, identiquement distribuées et bornées, auquel cas est nulle pour assez grand, ou bien sous l'hypothèse, moins brutale, que les variables sont indépendantes et identiquement distribuées et possèdent un moment d'ordre 4, auquel cas

.

Ici, en tronquant les , Kolmogorov s'est ramené à des variables bornées et indépendantes, mais qui n'ont pas même loi.

2e étape de la démonstration : recentrage

[modifier | modifier le code]

Les ont beau être centrées, cela n'entraîne pas que les soient centrées, sauf si on suppose, par exemple, que les sont symétriques, c'est-à-dire sauf si a même loi que . Par exemple, si , alors, dès que n'est pas centrée. Il est commode, pour la suite, de centrer les  : on pose

et

Alors

Proposition 2. — Soit une suite de variables aléatoires indépendantes et de même loi, intégrables. Alors

est équivalent à

C'est l'étape où Kolmogorov utilise l'hypothèse d'indépendance (et, sans le dire, la notion de temps d'arrêt). Par contre, l'Inégalité de Kolmogorov ne requiert pas des variables de même loi.

Inégalité de Kolmogorov. — Soit une suite de v.a.r. indépendantes et centrées. Posons

Alors, pour tout ,

4e étape : Convergence de séries de variables aléatoires

[modifier | modifier le code]

L'inégalité de Kolmogorov est, avec le lemme de Borel-Cantelli, l'ingrédient essentiel de la preuve de la proposition suivante :

Proposition 3. — Soit une suite de variables aléatoires indépendantes et centrées. Si

alors la suite est presque sûrement convergente, ou bien, de manière équivalente, la série est presque sûrement convergente.

Lemme de Kronecker. — Soit une suite de nombres strictement positifs, décroissante vers 0. Si est une série convergente, alors

Pour conclure sa démonstration, Kolmogorov utilise le lemme de Kronecker avec , voir section suivante.

6e étape : Conclusion dans le cas de variables centrées

[modifier | modifier le code]

Lemme 1. — Avec les notations de l'étape « recentrage », on a

Du lemme 1 et de la Proposition 3, on déduit que, presque sûrement,

puis, grâce au lemme de Kronecker, on déduit que, presque sûrement,

ce qui est équivalent à la loi forte des grands nombres (pour des variables centrées), comme on l'a vu aux étapes « troncature » et « recentrage ».

7e étape : décentrage

[modifier | modifier le code]

Si on ne suppose plus les centrées, mais seulement indépendantes, identiquement distribuées et intégrables, on pose

et, les étant centrées, indépendantes, identiquement distribuées et intégrables, la conclusion des étapes précédentes est que

Mais

Donc

C.Q.F.D.

Réciproque

[modifier | modifier le code]

Supposons que l'ensemble Ωc défini par

est de probabilité 1. Notons la limite de la suite ci-dessus, lorsqu'elle est définie, i.e. lorsqu'ω appartient à Ωc. L'ensemble Ωc est inclus dans l'ensemble suivant

puisque, lorsque ω appartient à Ωc, on a

Ainsi, l'ensemble Ω0 lui aussi est de probabilité 1. Posons

.

La limite supérieure des An est disjointe de l'ensemble Ω0 , donc elle est de probabilité nulle. En vertu de la loi du zéro-un de Borel, on en déduit, puisque les événements An sont indépendants, que

Par ailleurs, en toute généralité, comme on l'a vu lors de la première étape,

Notes et références

[modifier | modifier le code]
  1. Émile Borel, « Les probabilités dénombrables et leurs applications arithmétiques », Rendiconti del Circolo Matematico di Palermo, Circolo Matematico di Palermo, vol. 27, no 1,‎ , p. 247-271 (ISSN 0009-725X et 1973-4409, DOI 10.1007/BF03019651, lire en ligne).
  2. Classification et notation reprise de White (1984).

Articles connexes

[modifier | modifier le code]

Références

[modifier | modifier le code]

Liens externes

[modifier | modifier le code]