Cours Statistique Inferentielle

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 48

Edition 2020

Cours :
STATISTIQUE
INFERENTIELLE

Auteur : Pr. Z. BENABBOU


Plan

Chapitre I : Concept de base de la théorie des probabilités

1. Terminologies et règles de calcul des probabilités

2. Distributions de probabilités

2-1 Loi de Bernoulli

2-2 Loi Binomiale

2-3 Loi de Poisson

2-4 Loi uniforme

2-5 Loi de Laplace-Gauss ou loi normale

2-6 Approximation par la loi normale

2-7 Lois des variables aléatoires liées à des variables aléatoires normales

Chapitre II : Théorie d’échantillonnage

1- Echantillonnage.

2- Distribution d’échantillonnage des moyennes

3- Distribution de la proportion de l’échantillonnage

Chapitre III : Estimation

1- Notion d’estimateur

2- Qualités d’un estimateur

3- Estimation ponctuelle

4- Estimation par intervalle de confiance

1
Z.BENABBOU EDITION : 2020
Chapitre IV : Les tests d’hypothèse

1- Tests paramétriques

1-1 Principe des tests

1-2 Tests de conformité

1-2-1 Test de comparaison d’une moyenne à une valeur donnée

1-2-2 Test de comparaison d’une proportion à une valeur donnée

1-3. Tests d’homogénéité

1-3-1 Comparaison de deux variances

1-3-2 Comparaison de deux moyennes

a- Variances des populations connues

b- Variances des populations inconnues et égales

c- Variances des populations inconnues et inégales

1-3-3 Comparaison de deux proportions

2- Test non paramétrique : Test d’indépendance de deux variables

2
Z.BENABBOU EDITION : 2020
Chapitre I :

Concept de base de la théorie des probabilités

1. Terminologies et règles de calcul des probabilités

1-1 Terminologies

➢ Espace échantillonnal ou univers : est l’ensemble de tous les résultats «

potentiellement possibles » d’une expérience.

➢ Evénement simple : est un élément de l’espace échantillonnal.

➢ Evénement composé : est un ensemble formé d’un ou de plusieurs

événements simples

➢ Probabilité d’un événement : notée P (« événement ») est une mesure des

chances (en proportion) de réalisation de l’événement. Toute probabilité est

un nombre situé entre 0 et 1

➢ Evénement impossible : a une probabilité de 0.

➢ Evénement certain : a une probabilité de 1

➢ Probabilité conditionnelle : Soient P (A) = la probabilité que l’événement A se

produise et P (B) = la probabilité que l’événement B se produise.

On définit la probabilité conditionnelle de B étant donné A, notée P (B | A), comme

la probabilité que l’événement B se produise étant donné que l’événement A s’est

produit.

➢ Evénements mutuellement exclusifs : Deux événements sont dits

mutuellement exclusifs si la réalisation de l'un empêche la réalisation de

l’autre : P (B) ≠ 0 et P (B | A) = 0

Dans le cas contraire, ces événements sont dits non mutuellement exclusifs :

P (B) ≠ 0 et P (B | A) ≠ 0

3
Z.BENABBOU EDITION : 2020
➢ Evénements indépendants : Deux événements sont dits indépendants si la

réalisation ou la non-réalisation de l’un ne modifie en rien la probabilité de

réalisation de l’autre, c’est-à-dire P (B | A) = P (B). Dans le cas contraire, ces

événements sont dits dépendants.

1-2 Règles de calcul des probabilités

➢ Règle du complément (= NON) P (non A) = P ( A ) = 1 - P (A)

➢ Règles de l'addition (= OU) P(A ou B) = P(A) + P(B) - P(A et B)

➢ Règles de la multiplication (= ET)

➢ Événements indépendants : P (A et B) = P(A) × P(B)

➢ Événements dépendants : P (A et B) = P(A) × P(B | A)

➢ Espérance mathématique et variance

Espérance

On sait qu'à chaque événement de l'espace échantillonnal est associé une

probabilité ; supposons qu'on lui associe également une « valeur » (donnée par la

variable aléatoire).

La question est alors de savoir quelle « valeur », à long terme, peut-on obtenir.

La valeur espérée, appelée espérance mathématique, est alors la moyenne

pondérée, par la probabilité, de toutes les valeurs des événements de l'espace

échantillonnal . Pour la calculer, on fait le produit de la valeur de chaque résultat

possible par sa probabilité d'apparition et on fait la somme de tous les produits ainsi

obtenus. En formule

n
E ( X ) =  xi p ( xi )
i =1

4
Z.BENABBOU EDITION : 2020
où E(X) = l'espérance mathématique de la variable X

xi = valeur que peut prendre la variable X

P( xi ) = la probabilité de la valeur xi

Variance n appelle variance de la V.A X le nombre réel défini par :

( )
2
n  n 
V ( X ) = EX − E ( X )2 = E X 2 − E ( X )2 =  xi2 . pi −   xi . pi 
i =1  i =1 

2- Distributions de probabilités

Une distribution de probabilités est une énumération de tous les résultats possibles d'une

expérience avec leur probabilité respective

On remarque que la somme de toutes les probabilités est 1;ce qui est le cas pour toutes les

distributions de probabilités

Plusieurs distributions de probabilités s'avèrent essentielles pour comprendre les méthodes

de l'inférence statistique. On étudiera ici : la distribution binomiale, la distribution normale et

la distribution de Poisson. Plus tard, on présentera : la distribution t de Student, la distribution

F de Fischer et la distribution du χ2.

2-1 Loi de Bernoulli :

Définition : Une variable aléatoire X suit une loi de Bernoulli si elle prend les

valeurs 0 et 1 avec la probabilité :

P (X = 1) = p

P (X = 0) = 1 – p = q

Espérance et variance :

1
E(X) =  x P(X=x) = p
x =0

5
Z.BENABBOU EDITION : 2020
1
V(x) =  (X – E(X))2 P(X=x)
x =0

1
=  x2P(X=x) - p2
x =0
= p - p2 = p(1-p) = pq

2-2 Loi Binomiale :

Présentation :

Soit une épreuve aléatoire à deux issues, que l’on peut appeler « succès » et

« échec ». La probabilité d’avoir un « succès » est toujours p. Celle d’avoir un

« échec » est q = 1 – p. On répète cette épreuve n fois de suite de façon

indépendante. Le nombre de « succès » est une variable aléatoire suivant la loi

binomiale notée B(n,p).

Définition :

Une v.a suit une loi binomiale B(n,p) si elle prend les n +1 valeurs0,1,…..,n

Avec les probabilités :

P(X=k) = Cnk p k q n − k

n!
Cnk =
k!(n − k )!
Remarque :

La loi binomiale est la loi discrète rencontrée le plus fréquemment car elle sert à

modéliser de nombreux phénomènes aléatoires. On l’obtient comme la somme de

variables de Bernoulli.

6
Z.BENABBOU EDITION : 2020
Espérance et variance :

n n n
E(X) = E (  X i ) =  E ( X i ) =  p =np
i =1 i =1 i =1

n
V(x) =  V ( X i ) = npq
i =1

2-3 Loi de Poisson :

La loi de Poisson sert souvent à modéliser les fréquences d’apparition

d’événements rares et constitue sous certaines conditions une approximation de la

loi binomiale. Elle sert également à modéliser des phénomènes dépendant du

temps tels que la survenue des moments d’appel à un central téléphonique, la

succession des dates auxquelles se produit une panne dans une usine.

Définition :

La variable aléatoire X de Poisson est une variable discrète qui prend les valeurs

entières x = 0,1, 2,…… avec les probabilités :

− k
P(X=k) = e
k!
Espérance et variance : E(X) = V(X) = 

Démonstration :

  k
On utilise la propriété : e = 
k = 0 k!

  e −  k
E(X) =  kp( X = k ) =  k
k =0 k =0 k!

7
Z.BENABBOU EDITION : 2020
Le premier terme de la somme étant nul, on peut alors la débuter à 1 et mettre  en

facteur :

 e −  k −1
E(X) =  
k =1 (k − 1)!

Faisons le changement de variable : k’ = k-1. On obtient :

 e −  k
'
 k'

E(X) =   = e −   = e −  e  = 
' '
k ' =0 k ! k ' =0 k !
V(X) = E(X2) – [E(X)] 2

Calculant :

 2  2 e −  k −  2 
k
E (X2) =  k p( X = k ) =  k =e  k
k =0 k =0 k ! k =0 k!

−  k −1
=e  k
k =1 ( k − 1)!

Faisons le changement de variable : k’ = k-1. On obtient :

 k'
− 
E (X2) =  e
'
 ( k + 1)
k ' =0 k '!

 k'  k'
−  
=e [  k' +  ]
' '
k =0 k ! k =0 k !
' '

=  e −  [ e  + e  ]

= 2 + 

D’où : V(X) = 2 +  − 2 = 

8
Z.BENABBOU EDITION : 2020
Propriété :

Si deux variables aléatoires indépendantes suivent respectivement des lois de

Poisson de paramètres 1 et 2 alors leur somme suit une loi de Poisson de

paramètre  = 1 +  2

2-4 Loi uniforme :

4-a Loi uniforme discrète :

Modèle aléatoire de cette loi :

L’expérience aléatoire de cette loi consiste à tirer une boule dans une urne qui

contient n boules numérotées de 1 à n ou à extraire des nombres d’une table de

nombres au hasard.

La variable aléatoire X associe à cette expérience est égale au numéro obtenu sur

la boule extraite de l’urne.

1
Les nombres entiers de 1 à n ont ainsi tous la même probabilité d’apparition soit
n
Définition :

SX = {1, 2,,k,…..,n} est l’ensemble des situations possibles de X = x

1
Pk = P (X = k) =
n
Remarque :

Au lieu de faire varie les résultats possibles de 1 à n, il est possible de faire varier

les résultats de n’importe quel réel, même négatif, avec un pas quelconque.

n +1 n2 − 1
Espérance et variance : E(X) = et V(X) =
2 12

9
Z.BENABBOU EDITION : 2020
4-b Loi uniforme continue :

Modèle aléatoire

Cette loi modélise des phénomènes continus uniformément répartis dans un

intervalle. Souvent il s’agit d’un intervalle de temps, la probabilité d’un intervalle est

proportionnelle à sa longueur.

Définition :

Une variable aléatoire X continue suit une loi uniforme sur un intervalle [a,b] si X est

une variable aléatoire de densité f telle que :

 1
 f ( x) = si x  [ a, b]
 b−a

 f ( x ) = 0 sinon

Espérance et variance :

a+b (b − a ) 2
E(X) = et V(X) =
2 12
Démonstration :

b
+ b x  x2  a+b
E(X) =  xf ( x ) dx =  dx =   =
− ab − a  2(b − a)  a 2

V(X) = E(X2) – [E(X)] 2

2
b x 1
E(X ) = 
2 dx = (b 2 + ab + a 2 )
ab − a 3

Par conséquence :

(b − a ) 2
V (X) =
12

10
Z.BENABBOU EDITION : 2020
2-5 Loi normale ou loi de Laplace-Gauss

2-5.1 Objectifs :

• La loi de Laplace-Gauss joue un rôle particulièrement important dans la théorie

des probabilités et en statistique car c’est une loi limite vers laquelle tendent les

autres lois de probabilités pour des conditions que l’on rencontre fréquemment

dans la pratique. C’est pour cette raison qu’il est d’usage de la désigner par le

terme de loi normale.

• Cette loi a été introduite pour rendre compte des fluctuations « normales »

d’une grandeur physique. On s’attend à savoir :

- La plupart des valeurs centrées autour d’une moyenne µ,

- Une dispersion symétrique autour de µ,

- De faibles chances d’être loin de µ, d’autant plus faibles qu’on s’en

éloigne.

2-5-2 Définition :

X suit une loi normale N (µ,  ) si sa fonction de densité est donnée par :
1  x− 2

−  
1 2  
f ( x) = e
 2
On a alors : E(X) = µ et V(X) = 2

2-5-3 Cas particulier : Loi normale centrée réduite :

• C’est une loi normale de moyenne 0 et d’écart-type 1, de densité :

x2
1 −
f ( x) = e 2
2
11
Z.BENABBOU EDITION : 2020
Elle est notée par N (0,1).

• On montre que l’on peut se ramener, par un changement de variable, d’une loi

normale quelconque à la loi normale centrée réduite :

X −
Si X → N (µ, ) alors Z = → N(0,1)

La fonction de répartition de la loi normale centrée réduite est tabulée. Elle sert,

moyennant le changement de variable encadré, à l’étude de toute loi normale.

2-5-4Utilisation pratique

X suit une loi normale N (µ,  ). Pour calculer P(X<a) :


X −
1- on se ramène à la loi N (0,1) en posant Z =
 alors :

X −m a−m
P(X<a) = P ( < ) = P (Z  a − m )
  
a−m
Soit : F(b) = P(Z<b) avec b =

2- on cherche b dans la table N(0,1) . Deux cas peuvent se présenter :

• b>0, alors on lit directement dans la table F(b)

• b<0. La table ne donne que les valeurs de F pour b >0, il faut exploiter la

symétrie de la fonction densité :

F(-b) = P(Z < -b) = P(Z > b) = 1 – P(Z < b)

F(-b) = 1 – F(b)

Résultats pratiques :

- P(Z>-a) = P(Z<a)

- P(-a<Z<a) = P ( Z  a) = [2P(Z<a)] – 1

12
Z.BENABBOU EDITION : 2020
- Somme de deux lois normales indépendantes

 X1 → N ( 1 ,  1 ) 
 
X2 → N (2 , 2 ) 
- Si
X , indépendants 
 1 X2

alors X 1 + X 2 → N ( 1 +  2 ;  12 +  22 )

2-6 Approximation par la loi normale

2-6-1 Objectif :

Les calculs avec la loi de poisson, et encore plus avec la loi binomiale, sont

souvent pénibles à effectuer. Lorsque n est assez grand, il est possible de remplacer

ces lois par des lois normales de même variance et de même moyenne.

2-6-2 Approximation de la loi binomiale par la loi normale

* Utilisation du théorème central limite

Si X suit une loi binomiale de paramètres n et p, X peut être décomposé en une

somme de n variables de Bernoulli indépendantes de paramètre p :

X = X1 + X2 +….+ Xi +….+ Xn .

Le théorème centrale limite s’applique à X, d’où :

X − np
→ N (0,1) En posant µ = np et  = npq
npq

−1 k −  
2

1  
k k n−k 2  
C p q  e
2
P (X = k) =
n
n

13
Z.BENABBOU EDITION : 2020
2-6-3 Approximation de la loi binomiale par la loi de Poisson :

Théorème:

Soit (Xn) une suite de variable aléatoire qui obéissent à une loi binomiale de

paramètre n et pn.

Si pn tend vers 0 de manière que npn tende vers  alors Xn → X (en loi).

Avec X une variable aléatoire de Poisson de paramètre  .

Utilisation dans la pratique :

Si n > 30, p  0,1 np < 15 alors on utilise la loi de Poisson de paramètre  = np

au lieu de la loi binomiale de paramètres n et p.

k
C'est-à-dire :
k k n−k
P (Xn= k) = Cn p q  e−
k!
2-6-4 Approximation de la loi de Poisson par la loi normale :

Si X suit une loi de Poisson de paramètre  , X converge vers une loi normale et

si  est assez grand, X peut être approximée par une variable de moyenne  et

d’écart-type .
Les statisticiens admettent que l’approximation est très bons dès que  est supérieur

ou égal à 20.

Puisque : E(X) =  et X =  on a :

−1 k −   2
k  
− 1   
P(X= k) = e  e 2
k! 2

14
Z.BENABBOU EDITION : 2020
2-7 Loi des variables aléatoires liées à des variables aléatoires

normales.

2-7-1 Loi de khi-deux (  )


2

Définition :

Une variable du khi-deux à n degrés de libertés, notée  n , est somme de n


2

carrés de variables de loi normales centrées réduites et indépendantes.

E (  n ) = n et V(  n ) = 2n
2 2
Espérance et variance :

Remarque :

- Si n > 30 alors  n2  N (n, 2n )


Cette loi permet de déterminer la marge d’erreur sur l’estimation d’une variance

d’une population à l’aide d’un échantillon. (Intervalle de confiance de la variance).

2-7-2 Loi de Student

Définition :

Si U → N (0,1), Y →  n2 , U et Y indépendantes alors la variable aléatoire

U
Tn = suit une loi de Student à n degrés de libertés.
Y
n
Espérance et variance :

n
E ( Tn ) = 0 et V ( Tn ) =
n−2
Remarque :

Si n > 30 alors Tn  N (0,1)


15
Z.BENABBOU EDITION : 2020
Chapitre II : Théorie d’échantillonnage

1 : Echantillonnage

La population est l'ensemble des unités qui définissent l'objet d'étude. Les

« unités » peuvent être des individus tels que des travailleurs, des patrons, des

étudiants, etc. Ils peuvent être aussi des objets tels que des organisations, des

sociétés ou des équipements. Quelquefois, les micro-données comportent toute une

population, ce qui facilite grandement l'interprétation des données.

L’échantillon c'est une partie de la population. Peu d'organismes peuvent

recueillir des données de toute la population. Cela à cause des coûts élevés que

suppose une telle opération et que généralement il y a peu d'intérêt à le faire. En

effet, les statistiques nous permettent de prendre un échantillon et de généraliser

nos mesures à toute la population.

Méthode s d'échantillonnage

L'échantillonnage est une partie importante des statistiques. Elle nous permet de

comprendre ce qui se passe dans une population sans avoir à interroger chacun des

individus. Pour avoir de bonnes analyses statistiques, il est important de savoir et de

comprendre le type d'échantillonnage utilisé.

Un échantillon représentatif est un échantillon qui reproduit les caractéristiques

d'une population de manière à ce que les conclusions obtenues avec cet échantillon

se généralisent à la population

16
Z.BENABBOU EDITION : 2020
Le problème vient du fait qu'il faut avoir une liste valable et complète de la

population. Malheureusement, ce n'est pas toujours le cas. Il existe plusieurs

manières de faire l'échantillonnage, nous allons étudier quelques-unes d'entre elles.

Echantillonnage aléatoire

Mode d'échantillonnage sur une population qui répond à ces critères :

1. Connaissance de l'ensemble des échantillons ;

2. Chaque échantillon a une probabilité connue de sélection ;

3. Chaque échantillon a une probabilité non nulle de sélection ;

4. Chaque échantillon est choisi aléatoirement.

Une fois ces conditions remplies, on prend au hasard des échantillons. Les

méthodes les plus connues sont :

Échantillonnage au hasard simple

C'est la technique idéale et la plus facile à concevoir. On prélève n observations

dans la population, au hasard, de telle sorte que tous les échantillons possibles

de même taille ont la même chance d’être obtenu. Les résultats obtenus par cette

technique sont fiables et valides si la quantité d'échantillons est bonne.

Ne faites jamais ce travail à la main, il est assuré que d'une manière, ou de

l'autre, vous allez introduire une distorsion statistique qui invalidera votre

échantillon. Utilisez des logiciels qui possèdent des fonctionnalités

permettant de faire la sélection au hasard (SPSS).

L'échantillonnage en grappes

Imaginons que vous fassiez une enquête sur la productivité des travailleurs de

sexe féminin. Comme aucune liste de travailleurs n'existe pour votre ville, vous

devrez vous promener d'usine en usine pour faire la liste et ensuite faire votre

échantillonnage. Cela risque d'être très long et trop coûteux.

17
Z.BENABBOU EDITION : 2020
Pour faire un échantillonnage en grappes, vous pouvez sélectionner au hasard des

quartiers dans la ville et dans ses quartiers sélectionner des usines au hasard et

dans les usines sélectionner des ateliers au hasard. L'échantillonnage en grappes

est un échantillonnage probabiliste reposant sur la sélection aléatoire de grappes.

Une grappe est un ensemble d'unités d'une population qu'on constitue à l'aide de

critères bien définis.

Échantillonnage en strate

On reproduit un échantillon conforme à la population. Par exemple si on s’intéresse

à un caractère qui dépend de l’âge des individus :

Population Echantillon

[0,10[ 20% 20%

[10, 20[ 25% 25%

[20, 50[ 25% 25%

[50 et plus[ 30% 30%

Echantillonnage systématique:

L’échantillon est constitué d’unités dont les numéros sont en progression

arithmétique, le premier étant tiré au hasard.

Exemple :

Le logement n°9, le n°16, le n°23, .Les numéros forment une suite arithmétique de

raison 7.

18
Z.BENABBOU EDITION : 2020
Echantillonnage non aléatoires :

* L’échantillon à l’aveuglette est construit en recrutent des volontaires, en prenant

des personnes dont le nom commence par une certaine lettre, etc. Il est bien évident

qu’il est loin de la représentativité.

* La méthode la plus célèbre et la plus employée, est celle des quotas. Cette

méthode ressemble à la méthode par stratification, mais elle diffère par le mode de

détermination des personnes à interroger, qui n’est pas aléatoire.

2- Distribution d’échantillonnage des moyennes

2-1 Définition

La distribution d'échantillonnage des moyennes est la distribution des moyennes

arithmétiques de tous les échantillons possibles de taille donnée n pouvant être

formés à partir de la population.

La variation de ces moyennes est appelée variation d'échantillonnage.

Remarque :

Il y a trois types de distributions de probabilité :

– Distribution de la population, on fait un recensement les paramètres

sont : N, µ et 

– Distribution d’un échantillon, on fait un sondage les paramètres sont :

n,x et s

– Distribution d’échantillonnage, tous les sondages possibles : µx , x

19
Z.BENABBOU EDITION : 2020
Dans le cas où la population suit une loi Normale

Distribution de la population :

Moyenne = µ

Écart type = 

La distribution de la population est unique et

fixe

Distribution d’échantillon

• Il y autant de distributions qu'il y a d'échantillons différents possibles

• Chaque échantillon a ses indices particuliers

Moyenne = x
Écart type = S

Distribution d’échantillonnage

Moyenne =  X

Écart type =
X

Elle est unique et fixe pour un n donné

L'écart type dépend de la taille de l'échantillon (n1 <

n2 < n3)

2-2- Exemple :

Un relevé complet, du nombre d’automobiles par résidence, pour les 50 maisons

d’un certain quartier précise que pour 30 d’entre elle il y a une voiture, pour les 20

autres 2 voitures.

a- Calculer la moyenne, l’écart-type et la proportion

b- Calculer l’espérance mathématique et la variance.

20
Z.BENABBOU EDITION : 2020
c- Prélever l’ensemble des échantillons de taille 3 de la variable X.

d- Déterminer la distribution de l’échantillonnage.

2-3- Propriété :

Soit X une variable aléatoire quantitative, de moyenne µ et variance 2 connues.

Par sondage, on tire un échantillon de taille n. On obtient ainsi n valeurs de

X 1 + X 2 + ..... + X n
X = ( X 1 , X 2 ,......, X n ) . La moyenne X = est elle-même une V.A,
n

dépendant de l’échantillon choisi, telle que :

* E( X ) =  X = 


* X = si le tirage est avec remise ou la population infinie.
n

 N −n
* X = si le tirage est sans remise et la population est finie.
n N −1

2-4 Forme de distribution : Théorème centrale limite

* Si n  30 X → N (  X ,  X ) quelle que soit la distribution de la population.

* Si la distribution de la population est normale, la distribution d'échantillonnage des

moyennes est une distribution normale n

3- Distribution de la proportion de l’échantillonnage

3-1- Propriété :

Soit p la proportion de succès à l’intérieur de la population, et p̅ la proportion de

succès observée du caractère étudié dans un échantillon de taille n

pq
E ( p) = p V ( p) =
n

21
Z.BENABBOU EDITION : 2020
Démonstration :

Soit X = ( X 1 , X 2 ,......, X n ) l’échantillon aléatoire, et Y le nombre de succès

aléatoire à l’intérieur de l’échantillon. Alors Y suit une loi B(n,p) telle que E(Y) = np et

V(Y) = npq.

Y
Soit p la proportion de succès à l’intérieur de l’échantillon. p=
n

Y  1 np
E ( p ) = E   = E (Y ) = =p
n n n

Y  1 npq pq
V ( p) = V   = V (Y ) = =
n n 2
n 2 n
3. 2 Forme de la distribution: Théorème centrale limite

np  5  pq 
 alors p → N  p, 
Si :
nq  5  n 

22
Z.BENABBOU EDITION : 2020
Chapitre III : Estimation

Objectifs :

L’estimation statistique consiste à obtenir des informations sur des variables

liées à une population à partir d’un échantillon. En statistique descriptive un

échantillon est défini comme un sous-ensemble de la population, en théorie des

probabilités un échantillon est constitué de variables aléatoires qui suivent la même

loi. Les résultats issus de l’échantillon permettent d’induire un certain nombre de

caractéristiques sur la loi d’une variable aléatoire

L’étude de la distribution et des caractéristiques d’une ou plusieurs variables

concernant une population ne peut généralement être faite sur l’ensemble des

individus qui composent la population. Par exemple, pour connaître les intentions de

vote d’une population qui comporte des millions d’électeurs, il est impossible de

procéder, hormis le jour des élections, autrement que par un sondage c'est-à-dire par

le recueil des informations auprès d’un échantillon issu de cette population.

L’objectif de ce chapitre est de présenter les principales fonctions aléatoires qui

permettent d’estimer une moyenne, une variance et une proportion, et surtout de

donner les propriétés de ces fonctions qui sont appelés estimateurs. Ce sont les

propriétés de ces estimateurs qui permettent de déterminer une marge de l’erreur

sous forme d’intervalles de confiance Lorsqu’une caractéristique d’une population est

estimée sur un échantillon.

23
Z.BENABBOU EDITION : 2020
1- Notion d’estimateur :

Définition : Soient X une variable aléatoire dont la loi de probabilité dépend d’un

paramètre  à estimer, x1 , x 2 ,......, x n les valeurs de X pour un échantillon de

taille n et soit Tn( x , x 2 ,......, x n ) une fonction de ces valeurs.


1

On dit que Tn( x


1
, x 2 ,......, x n ) est un estimateur de  si :

E (Tn ) →  et V (Tn ) → 0 quand n croît infiniment.

2. Qualités d’un estimateur :

Un bon estimateur est caractérisé par son absence de biais et sa faible

dispersion.

2-a- Estimateur sans biais :

On dit que l’estimateur Tn est sans biais (ou sans distortion) si E(Tn ) =  .

L’estimateur est alors centré sur la vraie valeur , quel que soit l’effectif de

l’échantillon.

Le biais B(Tn) est égale à : B(Tn) = E (Tn) -  .

Exemple : Tn = X est un estimateur sans biais de m, en effet :

  Xi  1
E ( X ) = E  =  E( X ) = 1 n = 
 n  n i
n
 

2-b- Estimateur de faible dispersion :

Un estimateur Tn est d’autant meilleur qu’il comporte une plus faible erreur

aléatoire. La variabilité de Tn est mesurée par sa variance :

V(Tn) = E ([Tn –E(Tn)]2).

24
Z.BENABBOU EDITION : 2020
De deux estimateurs sans biais, le plus efficace est, par définition, celui qui

a la plus petite variance.

3. Estimation ponctuelle :

Il s’agit d’estimer µ,  2 et p dans la population générale. Les estimateurs

usuels de µ,  2 et de p sont :

3-a- Estimateur usuel de µ :

L’estimateur habituel de µ est la statistique X , moyenne de l’échantillon.

2
Puisque E( X ) =  V(X) =
n

Cet estimateur est sans biais et convergent. La moyenne x observée dans

un échantillon se rapproche de µ= E(X) si n est très grand.

3-b- Estimateurs usuels de  2 :

L’estimateur habituel de la variance 2 est :

* Si µ = E(X) est connu l’estimateur habituel est :


n

(X i − )2
S n2 = i =1

* Si µ = E(X) est inconnu l’estimateur habituel est :

n 2
 (Xi − X )
S n2 = i =1
n −1

Après expériences, l’estimation ponctuelle de 2 est :

25
Z.BENABBOU EDITION : 2020
n 2
 ( xi − x)
sn2 = s = i =1
n −1

Ce n’est pas tout à fait la variance de l’échantillon car on divise par n-1 au

lieu de n. Ces estimateurs ont été choisis parce qu’ils sont sans biais et

convergents.

3- c- Estimateur usuel de p :

C’est la statistique usuelle, proportion observée dans un échantillon :

 Yi
pn = p = Y = Où Yi suit une loi de Bernoulli de paramètre p.
n
pq
Puisque E ( pn ) = p et V ( pn ) = tend vers zéro quand n tend
n
vers l’infini, alors pn converge en probabilité vers p.

Exemple 1:

Une société de distribution envisage d’implanter un supermarché à proximité d’un

certain urbain pour cela elle veut déterminer la loi de probabilité de la valeur

hebdomadaire des achats de la ménagère et procède au sondage de 40 entre elle.

n
Les résultats obtenus sont : X = 475,25 DH  (x
i =1
i − X ) 2 = 154250,93( DH ) 2

Le responsable de l’étude suppose que la population obéit à une loi normale.

Déterminer les paramètres de cette loi ?

26
Z.BENABBOU EDITION : 2020
Exemple 2 :

Le nombre moyen de cartes de crédits qu’utilisent 50 individus d’un échantillon

prélevé chez les clients d’un magasin est de 2,28 et la variance est de 4, 362 cartes.

De plus 28% des clients utilisent plus de 2 cartes de crédits.

Quelle sont la moyenne, la variance des cartes de crédits utilisées par l’ensemble

des clients du magasin et la proportion de l’ensemble des clients qui utilisent plus de

2 cartes.

4- Estimation par intervalle de confiance :

Nous venons de voir comment on peut estimer à partir d’un échantillon les

principales caractéristiques d’une population. Mais ces estimations ponctuelles ne

sont pas assorties d’un niveau de confiance qu’on pourrait leur accorder. Il est donc

nécessaire, de construire des intervalles (centrés sur ces estimateurs) à l’intérieur

desquels la vraie valeur exacte µ, (ou p) a une bonne probabilité de se trouver.

Un tel intervalle s’appelle intervalle de confiance.

4-1 Définition :

L’estimation par intervalle de confiance consiste à établir un intervalle de valeurs qui

nous permet d’affirmer, avec un certain niveau de confiance ou de certitude 1 - α

prédéterminé (en général : 90%, 95% ou 99%), que la vraie valeur du paramètre de

la population se trouve dans cet intervalle.

27
Z.BENABBOU EDITION : 2020
4-2 Estimations par intervalle de confiance

Le tableau ci-dessous permet de trouver les intervalles de confiance pour

Paramètre

à estimer Conditions Loi utilisée Intervalle de confiance

d’application

2 connu
X −
 X → N (0,1)   
    X  z1− / 2 
normale

 ou
n  30

n
 n

2 inconnu
X −
→ Tn−1  sn 
 X  t )
n 
sn

( n−1)(1− / 2
 X

normale n 
n  30

2 inconnu
X −
→ N (0,1)
sn
 Sn 
n  30 (TCL) n    X  z1− / 2 
 n

 connue et X
(X i −  )2
→  n2
  ( X i −  )2  ( X −  ) 
i
2

2  ;
 2 normale   2 1 
 inconnu et X (n − 1) sn2  (n − 1) sn2 (n − 1) sn2 
→ 2
n −1  ; 
normale 2   2 1 

n  30, p− p  pq 
→ N (0,1)
p
pq  p  z1− / 2 
np >5 et nq >5 n  n 
ou npq>15

28
Z.BENABBOU EDITION : 2020
p− p p− p
Dans la pratique on utilise l’approximation suivante : 
pq / n pq / n

4-3 Exemples :

4-3-1- Cas ou 2 la variance de la population est connue, et qu’on cherche

à estimer µ

La durée d’un type de pile est distribué « normalement » avec un écart-type

de 2 heures. Pour estimer la moyenne de cette distribution, on prélève au

hasard un échantillon de 20 piles dont on relève la moyenne. La durée

moyenne est de 10 heures.

Donner un IC à 95% degré de certitude de m durée moyenne de l’ensemble

des piles.

Remarque :

Les intervalles de confiance donnés pour m doit être obligatoirement centrés sur

X.

4-3-2 Cas où 2 est inconnue et qu’on cherche à estimer µ :

On sait que la consommation d’essence (en l/ 100Km) d’un certain model

d’auto est distribué selon une loi normale.

On note la consommation de 25 voitures, on obtient une moyenne de 8,7 l/100

km et un écart-type de 0,09 l/100km.

Estimer la consommation moyenne de ce modèle à l’aide d’un IC de 90% de

certitude.

29
Z.BENABBOU EDITION : 2020
4-3-3 Cas où µ est connue et qu’on cherche à estimer 2
On analyse le PH d’un parfum, variable ayant un aspect « normal » de

moyenne 2,8. On prélève 25 unités de ce parfum dont on mesure le PH on trouve

X =3 et ( X i −  ) 2 = 0,0625 .

Donner une estimation par IC (95%) de  2.

4-3-4 Cas où la moyenne et la variance sont inconnues et qu’on cherche à

estimer la variance de la population :

La consommation d’essence d’un certain modèle de voiture est distribuée selon

une loi normale N (µ,  2 ), où m et  2 inconnues.

On donne n = 25, X = 8,72l/100 km et sn-1 = 0,09 l/100 km.

Donner une estimation par IC (90%) de 2 de X.

4-3-5- Estimation de p :

Une enquête faite sur un échantillon de 1000 adultes révèle que 110 d’entre eux

effectuent du travail au noir.

A l’aide de ce résultat, estimer la proportion de la population adulte qui travaille

au noir avec 95% de certitude.

30
Z.BENABBOU EDITION : 2020
Chapitre III : Tests d’hypothèses :

1-Tests paramétriques

Très souvent, on est conduit à confronter une estimation obtenue à partir

d’un sondage aléatoire à une norme fixé a priori, ou encore à comparer les

résultats de deux échantillons différents.

La résolution de ces problèmes de comparaison à partir des échantillons

aléatoires repose sur un mode de raisonnement statistique désigné sous le nom

de test d’hypothèses.

1-1 Principe des tests

Un test consiste à :

• Emettre une hypothèse, notée H0, appelée hypothèse nulle, sur un

paramètre de X,

• Proposer une hypothèse alternative, notée H1

• Choisir une grandeur calculée à partir de l’échantillon, appelée

statistique

• Construire une règle de décision

• Déterminer la zone de rejet de l’hypothèse H0 en fonction du risque

d’erreur α que l’on veut bien accepter

• Prendre une décision

31
Z.BENABBOU EDITION : 2020
Les risques d’erreur dans un test

Décision Accepter H0 Rejeter H0

réalité

H0 vraie Bonne décision Mauvaise décision:

Erreur α

H0 fausse Mauvaise décision: Bonne décision

Erreur β

α = P(Rejeter H0 sachant que H0 est vraie)

β = P(Accepter H0 sachant que H0 est fausse)

Remarque :

Le choix du risque α est lié aux conséquences pratiques de la décision : si les

conséquences sont graves, on choisira α = 1% ou 1‰, mais si le débat est plutôt

académique, α = 5 % fera le plus souvent l’affaire.

1-2 Tests de conformité

1-2-1 Test de comparaison d’une moyenne à une valeur donnée

Principe du test

Soit X, une variable aléatoire observée sur une population, X → N(μ,σ)

32
Z.BENABBOU EDITION : 2020
Population inconnue Population connue
X → N(μ,σ) X → N(μ0, σ0)

Echantillonnage aléatoire

Echantillon
n, X , s 2

Hypothèses
H0 : μ = μ0 H1: μ ≠ μ0
58

Méthode de résolution

Étape 1: H0 : µ = µ0 H1: µ ≠ µ 0

Étape 2: Déterminer le risque d’erreur α

Étape 3: Déterminer le critère de rejet.

X − 0
Z obs =
2
n

suit une loi normale centrée réduite N(0, 1)

Étape 4 : Règle de décision

➢ Si Zobs > Zseuil on rejette H0 au risque d’erreur α :

L’échantillon appartient à une population de moyenne μ ≠ µ0. Zseuil = Z1-α/2

➢ Si Zobs ≤ Zseuil on accepte H0 :

L’échantillon appartient à la population de moyenne µ 0 .

33
Z.BENABBOU EDITION : 2020
Remarque

Généralement on ignore à la fois la valeur de µ et de  de la population. On

remplace alors,  par son estimation sn déduite des observations :

• Si n ≥ 30 ou X suit une loi normale, on a

X − 0
Z =
sn / n

suit la loi normale centrée réduite.

• Si n < 30 et X suit une loi normale, Z est remplacé par T, T suit une loi

de Student à n-1 degrés de liberté.

Tests unilatéraux

Le test H0 : µ = µ0 contre H1 : µ ≠ µ0 est appelé test bilatéral. Dans

d’autres circonstances, la valeur µ0 est confrontée soit uniquement à des

valeurs supérieures, soit uniquement à des valeurs inférieures.

Ces situations sont appelées « tests unilatéraux ».

Test unilatéral droit Test unilatéral gauche

H0: µ = µ0 H0 : µ = µ0

H1 : µ > µ0 H1 : µ < µ0

Méthode de résolution :

Étape 1: H0 : µ = µ 0 H1: µ > µ 0

ou H1: µ < µ 0

34
Z.BENABBOU EDITION : 2020
Étape 2 : Déterminer le risque d’erreur α

Étape 3 : Déterminer le critère de rejet.

X − 0
Z obs =
2
n

Suit une loi normale centrée réduite N(0, 1)

Étape 4 : Règle de décision :

Test unilatéral droit H1: µ > µ 0

Si Zobs >Zseuil alors on rejette H0 au risque d’erreur α. Zseuil = Z1-α

Si Zobs ≤ Zseuil alors on accepte H0

Test unilatéral gauche H1: µ < µ 0

Si Zobs< Zseuil alors on rejette H0 au risque d’erreur α.

Si Zobs ≥ Zseuil alors on accepte

Exemple :

Une bibliothèque universitaire se demande si le nombre moyen d’ouvrages

consultés par les étudiants au cours d’une visite a augmenté. Dans le passé une

étude avait montré que cette moyenne s’établissait à 3 livres.

Un échantillon aléatoire de 10 étudiants (on suppose qu’il est normalement

distribué) a permis de mesurer une moyenne de 4,2 livres consultés avec un

écart type de 1,8. Que peut-on conclure ?

35
Z.BENABBOU EDITION : 2020
1-2-1 Test relatif à une proportion

Test bilatéral Test unilatéral droit Test unilatéral gauche

H0 : p = p0 H0 : p = p0 H0 : p = p0

H1 : p  p0 H1 : p > p0 H1 : p < p0

La fréquence suit, en général, une loi binomiale, en supposant que l’hypothèse

H0 est vraie, p = p0. Sous certaines conditions assez souvent remplies, on a vu

que :

pn − p0
Z =
p0 (1 − p0 ) / n

n1 n1 le nombre de succès
suit la loi normale centrée réduite. Avec
pn = et
n
Méthode de résolution

Étape 1 : H0 : p = p0 H1: p ≠ p0

Étape 2 : Déterminer le risque d’erreur α

Étape 3 : Déterminer le critère de rejet.

p − p0
Z obs =
p0 (1 − p0 )
n

suit une loi normale centrée réduite N(0, 1) si n >30, np0 ≥ 5 et nq0 ≥ 5

Étape 4 : Règle de décision

➢ Si Zobs > Zseuil alors on rejette H0 au risque d’erreur α

➢ Si Zobs ≤ Zseuil alors on accepte H0 : l’échantillon appartient à la population de

moyenne p0.

Zseuil = Z1-α/2

36
Z.BENABBOU EDITION : 2020
1-3. Tests d’homogénéité

Les tests d’homogénéité, destinés à comparer deux populations à l’aide d’un nombre

équivalent d’échantillons (tests d’égalité ou d’homogénéité), sont les plus

couramment utilisés. Dans ce cas la loi théorique du paramètre étudié (par exemple

p, μ, σ2) est inconnue au niveau des populations étudiées.

1-3-1 Comparaison de deux variances

3.1.1 Principe du test

Méthode de résolution :

Étape 1 : H0 : σ12= σ22 H1: σ12 > σ22

Étape 2 : Déterminer le risque d’erreur α

Étape 3 : Déterminer le critère de rejet.

n1
^ s12
 2
n1 − 1
Fobs = ^
1
=
n2
 22 s 22
n2 − 1

suit une loi de Fisher à (n1 -1, n2 -1) degrés de liberté

37
Z.BENABBOU EDITION : 2020
Étape 4 : Règle de décision

Il faut maintenant trouver dans la table de Fisher la valeur critique Fseuil .

La règle de décision s’énoncera alors ainsi :

Si Fobs ≥ Fseuil alors on rejette H0.

Si Fobs ≤ Fseuil alors on accepte H0

Exemple :

Méthode A Méthode B
1,30 1,30
1,32 1,40
1,40 1,48
1,45 1,48
1,50 1,50
1,51 1,60
1,55 1,76
1,56 1,88
1,92
2,20

Réaliser le test d’égalité de deux variances avec un risque d’erreur de 5%

1-3-2 Comparaison de deux moyennes

Principe du test

Soit X un caractère quantitatif continu observé sur 2 populations suivant une loi

normale et deux échantillons indépendants extraits de ces deux populations.

Hypothèses : H0 : µ1= µ 2 H1: µ 1 ≠ µ 2

38
Z.BENABBOU EDITION : 2020
a-Variances des populations connues

Conditions d’application :

X1 → N (µ 1,  1) , X2 → N(µ 2,  2) avec  1 ,  2 connus

 1   2 
X 1 → N  1 ,  et X → N  2 , 
 n1  2
 n2 
   
  12  22 
donc X1 − X → N  1 −  2 , + 
 n2 
2

 n1 

ou Z =
(X 1 − X 2 ) − ( 1 − 2 )
→ N (0,1)
 12  22
+
n1 n2

Méthode de résolution :

Étape 1 : H0 : µ1= µ 2 H1: µ 1 ≠ µ 2

Étape 2 : Déterminer le risque d’erreur α

Étape 3 : Déterminer le critère de rejet.

Sous H0 : µ 1= µ 2

X1 − X 2
Z obs =
 12  22
+
n1 n2

suit une loi normale centrée réduite N(0, 1)

Étape 4 : Règle de décision

Si Zobs > Zseuil alors on rejette H0.

Si Zobs ≤ Zseuil alors on accepte H0.

Avec Zseuil = Z1-α/2

39
Z.BENABBOU EDITION : 2020
Exemple

On a effectué une étude, en milieu urbain et en milieu rural, sur le rythme cardiaque

humain. La v. a X « rythme cardiaque » suit une loi normale

Effectif de l’échantillon 300(urbain) 240(rural)

Moyenne de l’échantillon 80 77

Variance de la population 150 120

Peut-on affirmer qu’il existe une différence significative entre les rythmes

cardiaques moyens des deux populations ?

b-Variances des populations inconnues et égales

Conditions d’application:

➢ n1 et n2 < 30 et les deux échantillons sont indépendants

➢ Les variances des populations n’étant pas connues, on fait l’hypothèse que

les deux populations présentent la même variance.

H0 : σ12 = σ22 = σ2 (voir test de comparaison des

Variances)

➢ X1 → N (µ1, σ 1) , X2 → N(µ 2, σ 2). Avec σ 1 = σ 2 = σ inconnus.

Méthode de résolution

Étape 1 : H0 : µ 1= µ 2 H1: µ 1 ≠ µ 2

Étape 2 : Déterminer le risque d’erreur α

Étape 3 : Déterminer le critère de rejet.

Sous H0 : µ 1= µ 2 et σ 1 = σ 2 = σ

40
Z.BENABBOU EDITION : 2020
X1 − X 2 n1s12 + n2 s22
^
Tobs = avec  = 2
^
1 1  n1 + n2 − 2
 2  + 
 n1 n2 
Suit la loi de Student de degrés n1 + n2 -2

Étape 4 : Règle de décision

Si Tobs > Tseuil alors on rejette H0.

Si Tobs ≤ Tseuil alors on accepte H0.

Avec Treuil = T1-α/2

Remarque

Dans le cas où les échantillons sont de taille plus importante (n1 ou n2 >30) , on

peut remplacer T par Z

Exemple :

On veut comparer la production de deux machines artisanales. Le volume de parfum

déposé par ces machines dans des flacons destinés à la vente a été mesuré en ml.

Les statistiques figurent ci-dessous. Le responsable soupçonne une production

dépendante de la machine.

Machine 1 47 53 49 50 46

Machine 2 54 50 51 51 49

Qu’en pensez-vous ?

c- Variances des populations inconnues et inégales

Conditions d’application :

➢ n1 > 30, n2 > 30 et les deux échantillons sont indépendants

➢ Les variances des populations n’étant pas connues,

41
Z.BENABBOU EDITION : 2020
et si leurs estimations à partir des échantillons sont significativement différentes (

test de comparaison des variances),.

➢ X1 → N (µ1, σ 1) , X2 → N(µ 2, σ 2).

Méthode de résolution :

Étape 1 : H0 : µ 1= µ 2 H1: µ 1 ≠ µ 2

Étape 2 : Déterminer le risque d’erreur α

Étape 3 : Déterminer le critère de rejet.

Sous H0 : µ 1= µ 2 et σ 1 ≠ σ 2

X1 − X 2 X1 − X 2
zobs = =
 ^2 ^
  s12 s22 
 1  22   + 
 +   n1 − 1 n2 − 1 
 n1 n2 
 

Suit la loi de normale centrée réduite

Étape 4 : Règle de décision

Si Zobs > Zseuil alors on rejette H0.

Si Zobs ≤ Zseuil alors on accepte H0.

Avec Zseuil = Z1-α/2

1-3-3 Comparaison de deux proportions

3.3.1 Principe du test

Soit X une variable qualitative prenant deux modalités (succès X=1, échec X=0)

observée sur 2 populations et deux échantillons indépendants extraits de ces deux

populations. On fait l’hypothèse que les deux échantillons proviennent de 2

populations dont les probabilités de succès sont identiques.

42
Z.BENABBOU EDITION : 2020
Hypothèses H0 : p1= p2 H1: p1 ≠ p2

Conditions d’application :

• Échantillons indépendants

• n1 > 30 , n2 > 30,

• n1p1 > 5, n1(1-p1)> 5,

• n2p2 >5, n2(1-p2) > 5.

3.3.2 - Méthode de résolution

Étape 1 : H0 : p1= p2 H1: p1 ≠ p2

Étape 2 : Déterminer le risque d’erreur α

Étape 3 : Déterminer le critère de rejet.

Sous H0 : p1= p2

p1 − p2 n1 p1 + n2 p 2
Z obs = avec p =
1 1  n1 + n2
p q + 
 n1 n2 

suit une loi normale centrée réduite N(0, 1)

Étape 4 : Règle de décision

Si Zobs > Zseuil alors on rejette H0.

Si Zobs ≤ Zseuil alors on accepte H0.

Avec Zseuil = Z1-α/2

43
Z.BENABBOU EDITION : 2020
Exemple

On veut tester l’impact des travaux dirigés dans la réussite à l’examen de statistique.

Groupe 1 Groupe 2
Nombre d’heures de TD 20 h 30 h

Nombre d’étudiants 180 150

Nombre 126 129


D’étudiants ayant réussi à l’examen

Qu’en concluez-vous ?

2- Test non paramétrique :

2-1 Test d’indépendance de deux variables

Soit un tableau de contingence d'effectifs observés avec deux variables qualitatives

qui se distribuent ainsi :

Effectifs observés :

Y Fumeurs Non-fumeurs
X

Hommes 17 8

Femmes 9 14

Y a-t-il un lien entre X et Y ?

44
Z.BENABBOU EDITION : 2020
Effectifs marginaux:

Totaux des lignes et des colonnes (marges)

Fumeurs Non-fumeurs Total

Hommes 17 8 25

Femmes 9 14 23

Total 26 22 48

Effectifs théoriques:

Si les 2 variables X et Y sont indépendantes on a :

Fumeurs Non-fumeurs Total

Hommes 13,54 11,46 25

Femmes 12,46 10,54 23

Total 26 22 48

25  26
n11 = = 13,54
48

45
Z.BENABBOU EDITION : 2020
2- Test d’indépendance : Test de 2
2.1 Principe du test

Soient X et Y deux variables qualitatives. On donne ci-dessous le tableau de

contingence de X et Y initial et celui si les deux variables sont indépendantes :

… yj … Total
… … … … …

xi … nij … ni.

… … … … …

Total … n.j … n

… yj … Total
… … … … …
n i .n.j
xi … … ni.
n
… … … … …

Total … n.j … n

Si X et Y sont indépendantes, les 2 tableaux doivent contenir des valeurs très

proches :

46
Z.BENABBOU EDITION : 2020
2.2 Méthode de résolution

Étape 1 : H0 : X et Y sont indépendantes

H1 : X et Y sont dépendantes

Étape 2 : Déterminer le risque d’erreur α

Étape 3 : Déterminer le critère de rejet.

(eff oij − eff tij ) 2


Sous H 0  obs
2
=
i, j efft ij

Suit une loi de ϰ² à n = (l-1) (c-1) degrés de liberté

l = Nombre de modalités de la variable en ligne

c = Nombre de modalités de la variable en colonne

L’utilisation de la loi du 2 n’est justifiée que si les effectifs théoriques de

chacune des cellules est supérieur ou égal à 5.

Étape 4 : Règle de décision

 2 obs >  2 seuil : on rejette H0.

 2 obs <  2 seuil : on accepte H0.

 2 seuil =  2 ((l-1)(c-1); 1-α)


Dans notre exemple :

(17 - 13,54)² (14 - 10,54)²


 obs
2
= + ........+
13,54 10,54
= 4.02

2.3 Conditions d’application:


Tous les effectifs théoriques doivent être supérieurs ou égaux à 5.
Dans notre exemple, d.d.l. = (2 - 1) x (2 - 1) = 1, avec un risque de 5% de se

tromper, la valeur lue est 3.841. Donc  2 obs = 4,02 >  2 seuil = 3,841
Nous pouvons conclure qu'il existe une liaison statistiquement significative entre ces
deux variables.

47
Z.BENABBOU EDITION : 2020

Vous aimerez peut-être aussi