PROBABILITES Et STATISTIQUES
PROBABILITES Et STATISTIQUES
PROBABILITES Et STATISTIQUES
PRINCIPALES DISTRIBUTIONS
DE PROBABILITÉS
INTRODUCTION
De nombreuses situations pratiques peuvent être modélisées à l’aide de variables aléatoires qui
sont régies par des lois spécifiques. Il importe donc d’étudier ces modèles probabilistes qui
pourront nous permettre par la suite d’analyser les fluctuations de certains phénomènes en
évaluant, par exemple, les probabilités que tel événement ou tel résultat soit observé.
La connaissance de ces lois théoriques possède plusieurs avantages sur le plan pratique :
rarement plus).
• La loi théorique agit comme modèle (idéalisation) et permet ainsi de réduire les
• Des tables de probabilités ont été élaborées pour les lois les plus importantes. Elles
sont les situations concrètes que l’on peut modéliser à l’aide de ces distributions. Viennent
enfin trois distributions théoriques dont la fonction n’est pas de modéliser mais de servir
1.1.1. Définition :
Une variable aléatoire discrète qui ne prend que les valeurs 1 et 0 avec les probabilités
Exemple : Une urne contient deux boules rouges et trois boules vertes. On tire une
boule de l’urne. La variable aléatoire X = nombre de boules rouges tirées est une
variable de Bernoulli.
Plus généralement, on utilisera une variable de Bernoulli lorsqu’on effectue une épreuve
qui n’a que deux issues : le succès ou l’échec. Une telle expérience est alors appelée épreuve
x01
f(x) = p(X = x) q p
E(X) = p V(X) = pq
a) On effectue une épreuve de Bernoulli. Elle n’a donc que deux issues :
épreuves.
Appelons Xi les variables de Bernoulli associées à chaque épreuve. Si la ième épreuve donne un
succès Xi vaut 1. Dans le cas contraire Xi vaut 0. La somme de ces variables comptabilise donc
⇒ La probabilité d'avoir k succès suivis de (n-k) échecs est pk qn−k car ces résultats
sont indépendants les uns des autres.
⇒ La probabilité d'avoir k succès et (n-k) échecs dans un autre ordre de réalisation est
l’événement
⇒ Combien y en a-t-il? Autant que de façons d’ordonner les k succès par rapport aux
(n-k) échecs ? Il suffit de choisir les k places des succès parmi les n possibles et les
k manières de choisir k
places parmi n.
p(X = k) =Cn
k pk qn−k
Remarque : L'adjectif binomial vient du fait que lorsqu'on somme toutes ces probabilités, on
pXkCpqpqn
kknk
(=)==(+)n=−
==
ΣΣ
00
1
Remarque : La formule donnant l’espérance semble assez naturelle. En effet, le nombre moyen
sous la forme d’un diagramme en bâtons. Puisque la loi dépend de n et p, nous aurons diverses
représentations graphiques si nous faisons varier n et/ou p comme c’est le cas pour les figures
suivantes.
b) Elle est dissymétrique dans le cas où p≠1/2. Si p est inférieur à 0.50, les probabilités sont
plus élevées du côté gauche de la distribution que du côté droit (asymétrie positive). Si p
c) La distribution tend à devenir symétrique lorsque n est grand. De plus, si p n'est pas trop
Si X p
Si X p
Si X
11
22
12
B(n
B(n
et X sont indépendantes
,)
,)
indépendantes des premières avec la même probabilité de succès que les premières, alors X1 +
a) On effectue une épreuve de Bernoulli. Elle n’a donc que deux issues :
c) Toutes les épreuves sont indépendantes entre elles, ce qui signifie que la
Dans cette situation, on s’intéresse à la variable X = nombre de fois qu’il faut répéter
Remarque : On est donc dans les mêmes hypothèses que pour la loi binomiale, mais le nombre
d’épreuves n’est pas fixé à l’avance. On s’arrête au premier succès.
de (n-1) échecs qui ont chacun eu la probabilité q de se produire. Étant donné l’indépendance
des épreuves, on peut dire que la probabilité de réalisation de (n-1) échecs suivis d’un succès
p(X = n) = qn-1p
Remarque : l'appellation géométrique vient du fait qu'en sommant toutes les probabilités, on
pppp
nN
()()
()
11
11
111
−=−=
−−
=−
∈
−
∗≥
ΣΣ
On admet que :
EX
()=
Var X
()=
22
np p
La propriété la plus importante de la loi géométrique est sans doute d'être "sans mémoire ".
En effet, la loi de probabilité du nombre d'épreuves à répéter jusqu'à l'obtention d'un premier
succès dans une suite d’épreuves de Bernoulli identiques indépendantes est la même quel que
soit le nombre d'échecs accumulés auparavant. On comprend intuitivement que cela découle de
Cette loi fut proposée par Poisson dans un ouvrage qu’il publia en 1837 sous le titre :
Beaucoup de situations sont liées à l’étude de la réalisation d'un événement dans un intervalle
de temps donné (arrivée de clients qui se présentent à un guichet d'une banque en une heure,
apparitions de pannes d'un réseau informatique en une année, arrivée de malades aux urgences
d'un hôpital en une nuit,....). Les phénomènes ainsi étudiés sont des phénomènes d'attente.
Pour décrire les réalisations dans le temps d'un événement donné, on peut :
• soit chercher le temps entre deux réalisations successives de l’événement qui est
La loi de Poisson peut être interprétée comme un cas limite d'une loi binomiale et la seconde
intéresse.
(2) La probabilité pour que l’événement se réalise une fois, au cours d’un petit
α est une valeur positive que l’on suppose constante tout au long de la période
d’observation.
(3) Il est très rare d’observer plus d’une fois l’événement au cours d’un petit intervalle
de temps Δt, c’est-à-dire que la probabilité pour que l’événement se réalise plus d’une
Les hypothèses (1), (2), (3) caractérisent ce qu'on appelle un processus de Poisson.
α est une constante du processus qui représente le nombre moyen de réalisations par unité de
réalise au cours d’un intervalle de temps de durée t » est distribuée suivant une loi de Poisson
de paramètre λ =αt .
d’un événement donné pendant un intervalle de temps t », sachant que le nombre moyen de
Or, nous connaissons déjà la loi de probabilités de la variable Y = «nombre de réalisations d’un
événement de probabilité p donné au cours de n essais». Il s’agit d’une loi binomiale B(n, p).
Pour comprendre la relation entre ces deux lois, divisons l’intervalle de temps de longueur t, en
L’hypothèse (3) du processus nous permet d’affirmer que dans chacun de ces n
une fois ou ne se réalise pas (cela sera d’autant plus vrai que n est grand). Dans chaque
Bernoulli .
L’hypothèse (2) du processus nous permet d’affirmer que dans chacun de ces n
αΔt α
n
= . Les variables de Bernoulli ont donc toutes le même paramètre p
=α .
est
réalisations de événement dans chaque intervalle est de plus en plus petite et la distribution
B(n , α
Conclusion : On peut considérer la loi de Poisson de paramètre λ comme la loi limite d’une
n
α restant
Nous allons nous appuyer sur cette caractérisation pour déterminer sa fonction de densité .
) , on sait que : p Y k C
nnn
(=)=k()k(−)nk−λλ
1.
donc : p Y k
nkkn
()
( )! !
()
()
==
××
λ
λ
××
−+
××−
[ ....... ]
()
()
nk
nkn
11
λλ
- Chaque terme du produit entre crochets tend vers 1 lorsque n tend vers l’infini. Il y a k
n→+∞ n
1− = 1
donc : lim ( )
→+∞ n
1− = 1
ln( )
nn
ne
→+∞ →+∞
−−=
1=
λ1
nn
n
→+∞ →+∞ n
1− = − = −
λλ
λ)
()
=≈
−λλ
fkpXk
()()
===∈
−λλ
kN
) est n
= λ.
Sa variance est n
(1-
E( X) = λ Var(X) = λ σ(X) = λ
droite. Les valeurs élevées d’une variable de Poisson sont peu rencontrées.
La loi binomiale dépend de deux paramètres n et p. Bien qu’il existe quelques tables,
elle est n’est pas simple à utiliser. La loi de Poisson ne dépend que d’un paramètre ce qui la
rend donc plus pratique. Il faut donc avoir toujours présent à l’esprit que, lorsque les
conditions le permettent, on peut avoir intérêt à remplacer une loi binomiale par une loi de
Poisson.
Lorsque n est grand et p petit, de telle façon que le produit np = λ reste petit par
rapport à n, la loi binomiale B(n, p) peut être approchée par la loi de Poisson P(λ)(revoir ce
qui a été dit sur ce sujet dans le paragraphe : « Distribution de probabilités »).
Cette approximation s’appliquant lorsque p est petit, la loi de Poisson est appelée la loi des
événements rares.
np
>
20
01 .
RÈGLE IMPORTANTE : Lorsqu’on approche une loi par une autre, on choisit le ou les
loi approchée.
Si X
Si X
Si X
11
22
12
P(
P(
et X sont indépendantes
circonstances.
sims1....
comptage t0. Ce nombre k obéit à une loi de Poisson dont le paramètre λ est le produit du flux
X ∼> P(αt0)
pXkett
k
k
()
()
= = −α α 0 0
résulte que la variabilité de X (quotient de l'espérance sur l’écart-type) devient très grande
quand le nombre moyen de coups est petit. Si les valeurs prises par X sont proches de 10
correspondant à une espérance αt0 proche de 10, l’écart-type valant αt 0 est proche de 3, ce
qui donne une variabilité de 30%. Ceci est parfaitement visible sur le « profil SIMS » présenté
sur le graphique de la page suivante. Le bruit devient important lorsque X est entre 10 et 15.
On effectue un contrôle de qualité sur des composants fabriqués par une unité de
production. Un composant est réputé bon (ou mauvais) lorsqu’il satisfait (ou non) à des
spécifications. Le critère de choix est donc qualitatif. Le taux moyen de rebuts (pièces
mauvaises dans cet échantillon de taille n est donnée par une loi de Poisson (il s’agit ici de la loi
des événements rares : la loi binomiale est approchée par la loi de Poisson).
X ∼> P(np)
1 S.I.M.S. : Secondary Ions Mass Spectrometry : méthode permettant une analyse quantitative des
impuretés
dans une masse solide. Un faisceau d’ions primaires abrase le matériau. Parmi les atomes arrachés à
la cible,
certains sont ionisés (ions secondaires). Ils sont triés en masse au moyen d’une diflexion magnétique
et comptés
pendant des intervalles de temps t0 au cours du processus d’abrasion. On obtient ainsi le profil de
concentration
()
()
==−
σX
EX
np
( ) np np
==
k rend le contrôle imprécis. Ceci explique que, dans un contrôle de qualité, la taille des
échantillons tirés de la population des pièces fabriquées doit être au moins de l’ordre de 100.
délimité
pendant un temps donné que le nombre d’événements survenant dans un espace délimité.
p X k e FS FS
()
()
==−
non plus seulement temporelle, c’est-à-dire qu’elle modélisera aussi bien le nombre d’accidents
qui peuvent survenir en une matinée que le nombre d’accidents qui peuvent survenir sur une
PROFIL S.I.M.S.
nombre
de
particules
détectées
par
seconde
temps
d’abrasion ( mn )
variable aléatoire qui représente le temps d'attente pour la réalisation d’un événement ou le
Exemple : Lorsque l’événement attendu est la mort d’un individu (ou la panne d’un
équipement), α s’appelle le taux de mortalité (ou le taux de panne). Dire qu’il a une valeur
constante, c’est supposer qu’il n’y a pas de vieillissement (ou pas d’usure s’il s’agit d’un
temps est α.
Pour cela, nous allons procéder comme dans le paragraphe 3 : Si t est la longueur de
l’intervalle de temps sur lequel dure notre étude, nous le divisons en n petits intervalles de
longueur
que l’on doit laisser s’écouler pour obtenir la réalisation de l’événement suivant. Chaque
=X
nt
p T t e t e udu
(>)==−−
+∞
0∫
ααα.
Ceci nous permet d’affirmer que la fonction de densité de la variable T est f (x) = e x − α α si x>0.
Définition : La loi exponentielle de paramètre α décrit la distribution d'une variable
continue X qui ne prend que des valeurs positives selon la fonction de densité :
f (x) = e x − α α x > 0
On vient de voir que la loi exponentielle est la loi limite d’une loi géométrique.
On a : T≈
Or E T
EX
nt
()=()==
11
αα
et V ( ) =
t2
ar T
n
t
11
αα()
si n est grand
Conclusion :
E(T) =
Var(T) =
2α
(T) =
Remarque : On peut très facilement retrouver ces résultats en effectuant un calcul direct à
seule loi continue qui possède cette propriété. Elle provient bien entendu du fait que le
gamma de paramètres n et α. Une telle loi est aussi appelée loi d’ERLANG d'ordre n. Elle
datation en géochronologie.
pressenties en 1773 par Abraham de Moivre lorsqu’il considéra la forme limite de la loi
binomiale.
En 1772, Simon Laplace l’étudia dans sa théorie des erreurs. Mais c’est seulement en 1809
pour Carl Friedrich Gauss et en 1812 pour Simon Laplace qu’elle prit sa forme définitive.
C’est ainsi qu’on l’appelle tantôt loi de Laplace, tantôt loi de Gauss, tantôt loi de LaplaceFIIFO
3 PROBABILITES - STATISTIQUES
Gauss. On trouve aussi l’expression, consacrée à une longue tradition, de loi normale (ce qui
ne signifie pas pour autant que les autres lois soient « anormales »).
Elle jouit d’une importance fondamentale car un grand nombre de méthodes statistiques
repose sur elle. Ceci est lié au fait qu’elle intervient comme loi limite dans des conditions très
générales.
Pour faire ressortir toute son importance et sa forme, W.J. Youden, du National Bureau
nombreuses, d’effet faible, et plus ou moins indépendantes. Un exemple typique est celui de
l’erreur commise sur la mesure d’une grandeur physique. Cette erreur résulte d’un grand
effet faible, mais l’erreur résultante peut ne pas être négligeable. Deux mesures faites dans des
conditions que l’expérimentateur considère comme identiques pourront alors donner des
résultats différents.
Donc dès que nous seront dans une situation où la distribution dépend de causes
⇒ en grand nombre et indépendantes
température et la pression.
Définition : Une variable aléatoire continue suit une loi normale si l’expression de sa
fxe
xm
()
()
2
2
σπ
σ x ∈ℜ
car f (x)dx
−∞
+∞
−∞
+∞
∫=
2 2π (c’est
l’intégrale de Gauss).
3. La loi normale étant tabulée, cette expression nous sera de peu d’utilité. Il
On démontre sans problème grâce à l’intégrale de Gauss (pourquoi ne pas effectuer le calcul à
cloche ». En fait il ne s’agit pas d’une courbe unique mais plutôt d’une famille de courbes
dépendant de m et σ.
FIIFO 3 PROBABILITES - STATISTIQUES
c) L’axe des abscisses est une asymptote et l’aire sous la courbe à l’extérieur de
p(m-2σ<X<m+2σ)= 0.9544.
p(m-3σ<X<m+3σ) = 0.9974.
Loi N ( 0, 1 )
d’inflexion.
Half Maximum) vaut 2.35σ. Cette distance est souvent employée par le
cependant être utilisée avec précaution car il faut s’assurer que les « bruits »
Si
Si
Si et
X N(m
X N(m , )
X X sont independantes
11
222
12
,σ )
2+)
Nous avons vu dans le chapitre 2 qu’à toute variable aléatoire X ,on pouvait associer
XEX
−()
σ()
On montre assez facilement que si on effectue cette transformation sur une variable
suivant une loi normale, la variable standardisée suit encore une loi normale mais cette fois-ci
de paramètres 0 et 1. La loi standardisée est appelée loi normale centrée réduite notée
N(0,1).
Xm
et T ∼> N(0,1).
X ∼> N(m, σ)
Xm
T ∼> N(0,1)
Paramètres :
E(X) = m Var(X) = σ2
Paramètres :
E(T) = 0 Var(T) =1
Il faut garder à l’esprit que concrètement T est le nombre d’écarts-type entre la valeur de X et
la moyenne.
La loi N(0,1) est tabulée à l’aide la fonction de répartition des valeurs positives ; Elle
tu
=≤≤=
−0∫
0π
d'aucun paramètre, mais permet cependant de déterminer les probabilités de n’importe quelle
distribution normale !
La première colonne de la table indique les unités et les dixièmes des valeurs de T alors que les
centièmes des valeurs de T se lisent sur la ligne supérieure de la table. La valeur trouvée à
J’utilise la symétrie de la courbe par rapport à l’axe des ordonnées et j’en conclus que
L ’ a i r e c h e r c h é e c o r r e s p o n d à l a somme s u i v a n t e :
C’est le problème inverse de celui des exemples précédents. Il s’agit de localiser dans la table
Remarque : Si la valeur de l’aire ne peut se lire directement dans les valeurs de la table, on
pourra toujours effectuer une interpolation linéaire entre deux valeurs adjacentes ou prendre la
Théorème : Hypothèses : Soit une suite de variables aléatoires X1,X2,...,Xn vérifiant les
conditions suivantes:
(1) Les variables sont indépendantes.
VarX
VarX
→+∞
=Σ
0.
Remarque : C’est ce théorème très important qui nous permet d’affirmer que la situation
concrète énoncée au début de ce paragraphe nous met en présence d’une loi normale. En effet :
♦ Dire qu’aucun facteur n’est prépondérant est traduit par l’hypothèse (3) du
théorème.
Toute variable qui suit une loi binomiale B(n,p) peut toujours être considérée comme une
vers l’infini, la loi binomiale B(n,p) tend vers une loi normale . La loi normale qui l’approche le
mieux est celle qui possède la même espérance np et le même écart-type npq .
Or la distribution binomiale est asymétrique sauf lorsque p = 1/2. La distribution normale, elle,
est symétrique. L’approximation sera valable lorsque p n'est pas trop voisin de 0 ou 1 et sera
En pratique:
np
nq
30
15
15
Dans la pratique lorsque n est très grand, cette correction n’est pas nécessaire. On
Remarque : Remplacer une loi binomiale par une loi normale simplifie considérablement les
calculs. En effet les tables de la loi binomiale dépendent de deux paramètres et les valeurs de n
dans ces tables sont limitées supérieurement par 20. La loi normale, elle, après standardisation
On démontre qu’on peut aussi approcher la loi de Poisson par la loi normale pour les grandes
valeurs du paramètre de la loi de Poisson.. La seule qui puisse convenir est celle qui a même
espérance et même variance. On approche donc la loi P(λ) par la loi N(λ, λ ) .
Remarque : La loi de Poisson étant elle aussi une loi discrète, on peut avoir à appliquer la
correction de continuité.
Voici, lorsqu’elle s’applique, une méthode de travail qui peut guider votre démarche :
5. Utiliser les formules théoriques ou les tables pour déterminer les probabilités
échoue (par exemple, parce que la ligne est occupée) avec la probabilité 0.25 et réussisse avec
la probabilité 0.75. On suppose que les tentatives sont indépendantes les unes des autres.
Quelle est la probabilité d’obtenir la communication si l’on peut effectuer trois tentatives au
maximum?
Solution :
faire pour obtenir le premier succès. X suit une loi géométrique de paramètre p = 0.75
p(X = 1) = 0.75.
→ On peut obtenir la communication au 2ème essai. On a pour cela une probabilité p(X
= 2) = 0.25×0.75 = 0.1875.
→ On peut obtenir la communication au 3ème essai. On a pour cela une probabilité p(X
= 3) =0.252×0.75 = 0.0469.
Exercice 2 : Un fabricant de pièces de machine prétend qu'au plus 10% de ses pièces sont
défectueuses. Un acheteur a besoin de 120 pièces. Pour disposer d'un nombre suffisant de
bonnes pièces, il en commande 140. Si l'affirmation du fabricant est valable, quelle est la
Solution :
éventualités : elle est bonne ou elle est défectueuse. La probabilité qu’une pièce soit
défectueuse est 0.1. Par conséquent elle est bonne avec la probabilité 0.9. On est donc
dans une situation type : X suit la loi binomiale de paramètres n = 140 et p = 0.9.
X ∼> B(140,0.9)
• On veut déterminer la probabilité que l’acheteur reçoive au moins 120 bonnes pièces
sur les 140, soit p(X ≥ 120) . A priori, il nous faudrait calculer la somme des
probabilités p(X = 120) + p(X = 121) +.......+ p(X = 140) ce qui serait
épouvantablement long. On essaie donc d’approcher la loi binomiale par une loi
tabulée :
Comme :
nq
30
14
donc nq > 10
Donc X qui suit la loi B(140, 0.9) sera approchée par Y qui suit la loi N(126, 3.55).
• Pour remplacer une loi discrète par une loi continue, il est préférable d’utiliser la
correction de continuité : p(X ≥ 120) ≅ p(Y > 119.5) . On se ramène enfin à la loi
Y
=
−126
3.55
pYp
(.)(pTpT
>=)(.)(.).(.).
>
126
355
119 5 126
355
Conclusion : l’acheteur a 97 chances sur 100 de recevoir 120 bonnes pièces sur les 140
achetées.
qu'elle recevra en moyenne 300 réclamations durant l'année en cours. Quelle est la probabilité
Solution :
• La variable X qui nous intéresse est le « nombre de réclamations reçues pendant une
temps donné. X suit donc une loi de Poisson. Le nombre moyen de réalisations dans
une année est 300. Cette valeur moyenne est aussi le paramètre de la loi de Poisson.
cette valeur du paramètre λ. Il nous faut donc approcher X qui suit la loi de Poisson
P(300) par Y qui suit la loi normale de même espérance et de même écart-type, c’està-
• Ici aussi, on remplace une loi discrète par une loi continue. Il faut donc appliquer la
correction de continuité : p(X > 350) = p(X ≥ 351) ≅ p(Y > 350.5). On se ramène
− 300
300
p(Y . ) p(T p T
>=>)(.).(.).
350 5 = > = − =
350 5 300
300
2 92 0 5 Φ 2 92 0 0017 .
en un an.
Exercice :4 Le nombre moyen de clients qui se présentent à la caisse d'un supermarché sur
un intervalle de 5 minutes est de 10. Quelle est la probabilité qu'aucun client ne se présente à la
Solution n°1 :
pX
(=)==e=.
0−
0!
0 018
40
4.
Solution n°2 :
d’attente Y entre deux clients. Le cours nous dit que la loi suivie par une telle variable
est une loi exponentielle. Son paramètre α est l’intensité du processus de Poisson soit
+∞
− +∞ − 2 ∫ 2 2 0 018
Les distributions que nous allons étudier sont importantes non pas pour représenter
des modèles théoriques de séries statistiques comme les précédentes, mais en raison du rôle
qu'elles jouent dans les problèmes d'estimation ou de tests que nous verrons par la suite.
Pour l’instant leurs définitions peuvent sembler complexes, notamment parce que la notion de
« degrés de liberté » n’a pas encore été précisée. Pour le moment, il importe simplement de
Elle a été découverte en 1905 par le mathématicien britannique Karl Pearson (1857-
1936) qui travailla également sur les problèmes de régression avec le généticien Sir Francis
Galton.
Cette distribution (qui se prononce khi-deux) est très importante pour tester
7.1.1. Définition
2+X2
2+.....+Xn
2=
=Σ
Xi
On note : X ∼> χn
L’expression de la densité de probabilités étant très compliquée et d’aucun intérêt pour nous,
nous ne la donnons pas ici.
supérieur .
E(X) = n V(X) = 2n
Si X
Si X
Si X
1n
2p
12
et X sont indépendantes
n+p
En pratique, on peut considérer que pour n≥30 on peut remplacer la loi du khi- deux à n
degrés de liberté χn
2 par la loi normale N(n, 2n) .
Pour des raisons de commodité, au lieu de donner la table des fonctions de répartition
(nombre de degrés de liberté) et d’une probabilité α que l’on peut choisir, la valeur χ α
,n
22>n=;
α est un seuil et a en fait une signification particulière dans les problèmes d’estimation et de
Cette distribution fut découverte par l’anglais Fisher en 1924 puis tabulée par Snédecor en
1934. Elle interviendra lors des comparaisons des variances de deux échantillons (test
d'hypothèse F).
7.2.1. Définition
Si χ1
2 et χ2
2 sont deux variables aléatoires indépendantes qui suivent toutes les deux
2
est une
On note : F ∼> Fn1 ,n2 . Cette variable ne prend que des valeurs positives.
On n'écrit pas ici l'expression de la fonction de densité, compliquée et inutile pour nous. Les
A mesure que les valeurs n1 et n2 augmentent, la loi de Fischer tend vers une loi normale.
Les valeurs tabulées de la variable F dépendent d’un seuil α que l’on peut choisir et des
pFFnn()>,,=αα12
7.3.1. Définition
selon une loi normale centrée réduite N(0,1) et la deuxième selon une loi de khi-deux à n degrés
de liberté χn
2.
La quantité T
Xn
= est une variable aléatoire qui suit une loi de Student à n degrés de
liberté.
On écrit T ∼> Tn
La densité de probabilité est de forme complexe et nous n'en aurons jamais besoin.
La distribution est symétrique par rapport à l'origine et un peu plus aplatie que la distribution
normale centrée réduite.Elle ne dépend que de la valeur n qui est son nombre de degrés de
liberté.
n−2
si n>2
Les valeurs tabulées de la variable T dépendent d’un seuil α que l’on peut choisir et du nombre