Outils MRK Ii
Outils MRK Ii
Outils MRK Ii
Pour ces types de questions, qui portent sur le « combien ? », l’étude de marché est
dite quantitative. Lorsqu’on se pose la question combien de camerounais achetant le produit a
une image positive de notre produit ? Deux démarches méthodologiques sont en réalité
possibles. La première consiste à dénombrer tous les camerounais pour donner une réponse
certaine à la question ; La deuxième consiste à estimer le résultat réel à partir de celui qu’on a
trouvé non en étudiant tous les camerounais, mais seulement une partie des camerounais.
C’est une méthode d’enquête quantitative qui consiste à interroger tous les individus
d’une population donnée sur leurs caractéristiques et opinions.
Le recensement est donc peu utilisé en marketing dès lors que la taille de la population
à étudier est importante. En revanche, pour des raisons de bonnes connaissances
démographiques et sociologiques, l’Etat peut réaliser le recensement de la population
camerounaise qui permette de déterminer le chiffre exact de la population et sa répartition par
province, commune ; connaître avec précision sa structure démographique et professionnelle,
les caractéristiques de l’habitat, fournir une base pour fonder les travaux d’analyse, de
recherche et de prévision. Cette dernière étant de plus en plus nécessaire aux gouvernements
et aux agents économiques.
Le principal intérêt du recensement est que les résultats ne sont pas extrapolés puisque tous
les intéressés sont interrogés.
En conclusion, bien que le recensement soit l’approche qui puisse apporter la réponse
la plus exacte possible lorsqu’on se pose la question « combien ? » en marketing, il est très
coûteux et techniquement peu approprié dans le domaine du marketing quand la taille de la
population est trop élevée. Néanmoins, lorsque la population est de petite taille, le
recensement n’est pas à exclure. Il est même d’une pratique très courante lorsque les études
portent sur les distributeurs, les salariés d’une entreprise. Il peut cependant arriver que la taille
soit réduite mais que sa dispersion géographique soit très élevée, dans ce cas aussi, le
recensement présentera les mêmes inconvénients.
C’est pour ces raisons que même si les exemples de recours ne manquent pas en marketing,
la plupart du temps, le chargé d’études lui, préfère l’enquête par sondage.
Le sondage est une enquête effectuée sur un sous ensemble ou échantillon d’une
population dont on veut connaître les caractéristiques et/ou opinions sur un sujet donné en
interrogeant un nombre limité de ses membres. Il repose sur le principe qu’on peut obtenir
une connaissance approchée (ou estimation) des caractéristiques de la population, considérée
à l’aide d’une enquête d’un sous-ensemble appelé échantillon de cette population.
Il est donc important avant toute enquête par sondage de connaître la population
d’étude et de définir l’unité de sondage. L’unité de sondage est tout simplement l’entité
statistique sur laquelle porte l’enquête. L’enquête par sondage peut prendre essentiellement
deux formes. Elle peut se réaliser de façon ponctuelle, dans le temps. C’est la pratique la plus
courante adoptée par les entreprises et dans ce cas, on obtient les informations concernant un
état et non une évolution, on parle de sondage ad hoc. En revanche, l’enquête répétitive
Comme l’enquête par sondage repose sur le principe d’estimation, la validité de ses
résultats dépend d’un grand nombre de facteurs plus ou moins maîtrisable. Statistiquement, la
validité des résultats dépend essentiellement de la représentativité de l’échantillon et de la
précision de l’estimation. L’échantillon sera plus ou moins représentatif de la population à
étudier selon la méthode d’échantillonnage utilisée. Quant à la précision de l’estimation, elle
sera fonction de la taille de l’échantillon. Mais en plus de ces considérations statistiques, il
existe un certain nombre de facteurs matériels, humains ou autres qui feront que les résultats
seront valides ou très contestables. Parmi ces facteurs on peut citer :
Cette longue liste de surcroît non limitative, montre la difficulté de réaliser une
estimation correcte à l’aide d’un sondage sachant en outre que sa validité dépend de l’élément
le plus fiable de cette chaîne : rien ne sert d’avoir un échantillon représentatif d’une taille
suffisante, d’un outil de traitement informatique sophistiqué si vos enquêteurs « bidonnent »,
c’est-à-dire vont jusqu’à remplir eux-mêmes certains questionnaires ou si vos pupitreuses
tapent n’importe quoi.
Cette remarque est d’autant plus pertinente que de très nombreuses personnes ou
chercheurs par ignorance peut-être pensent qu’utiliser un ordinateur assure la qualité
scientifique des résultats d’une enquête par sondage. Loin de là, l’ordinateur ou même le
logiciel le plus approprié n’est pas une machine à blanchir l’information sale. Mais ici
présentement, nous allons nous préoccuper du problème de validité et de précision.
Les inconvénients sont nombreux. Leur principal inconvénient est le risque de «biais
de panelisation» : les panélistes se lassent en effet d’être interrogés fréquemment, ou
rationalisent leur comportement d’achat et deviennent ainsi moins représentatifs.
L’échantillon est donc renouvelé régulièrement. Les panels présentent également une certaine
rigidité de structure ne permettant pas de changer en cours de route de questionnaire ou
d’échantillon, d’autre part le coût important d’un panel : de ce fait, en général, les panels sont
gérés par des instituts d’études qui vendent les résultats à plusieurs sociétés.
Dans le cas d’un panel, les études sont répétées à intervalles réguliers auprès d’un
échantillon dont la représentativité reste la même mais dont la population peut changer à
chaque vague. Il existe plusieurs types de panels.
Le premier type consiste à recueillir régulièrement des informations sur les achats d’un
échantillon de ménages qui répondent à diverses questions précises telles que : qui consomme
quoi ? En quelles quantités ? Les principaux panels de consommation sont les suivants :
L'échantillonnage d'un panel est déterminé de façon représentative. Cet échantillon est fixe
c'est-à-dire que sa structure n'évolue pas, mais la population est renouvelée par fraction lors
de chaque vague. Les panels consommateurs permettent de déterminer :
Le second type de panel consiste à réaliser des études ad hoc portant sur les pratiques, les
opinions, les préférences, auprès d’un panel d’individus représentatifs de la population
nationale. Les thèmes abordés sont variés (grande consommation, santé, médias, loisirs….).
On les appelle Access Panels. Les principaux Access Panel sont :
- BVA-Calyx : panel constitué à base de la mégabase Calyx interrogé par voie
postale, téléphone, face à face pour des suivis des marchés…
- Prométhée de SECODIP : panel de 40 000 individus, pour suivre 1000 marques
sur plus de 70 marchés.
Ils consistent à recueillir des informations auprès d’un échantillon de points de vente pour :
- Connaître les volumes, les prix de vente et parts de marché des différents marques
d’un segment ;
- Suivre les évolutions de la distribution (canaux en hausse et en baisse), l’offre
disponible au point de vente ;
- Connaître la présence de la marque dans les différents canaux de distribution ; cette
présence sera indiquée par deux indicateurs clés : la distribution numérique et la
distribution valeur (DN et DV).
DV : la distribution valeur = la part des points de vente où la marque est présente sur la classe
de produits.
Les panels d’audience fournissent des données sur les taux d’audience des chaînes de
télévision, des radios. Le principal panel d’audience de la télévision est le Médiamat géré par
Médiamétrie. On peut connaître ainsi l’audience cumulée, la durée d’écoute,…
Il existe de nombreux panels spécialisés. On peut citer les panels de médecins (IMS), de
patients (Pathopan qui comprend 10000 patients souffrant de pathologies chroniques,
Alzheimer, cancer, sida…), d’agriculteurs (Agrimar), etc.
Elles permettent de constituer un échantillon d’une population mère dont on veut estimer par
inférence statistique ou induction, certaines caractéristiques. Il existe deux grandes familles de
méthodes d’échantillonnage ou procédures de tirage : les méthodes probabilistes et les
méthodes empiriques. Bien que le choix entre ces familles de méthodes prenne en compte le
budget et les délais de réalisations accordés par le commanditaire, le plus important des
critères de choix est toutefois la possibilité ou non de se procurer une base de sondage.
Avant de concevoir un échantillon, il faut définir d’abord et précisément :
- La population mère (ou base de sondage) : Une base de sondage est une liste exhaustive
des éléments de la population à étudier à partir de laquelle il est possible de constituer un
échantillon représentatif, le plus souvent soit en procédant à un tirage systématique, soit en
utilisant une table ou un logiciel de nombres au hasard.
-L’unité de sondage : c’est l’entité à interroger. Elle peut être l’individu, le ménage,
l’entreprise, le point de vente ou autre selon les besoins de l’enquête. Une erreur de définition
de l’unité de sondage peut altérer gravement les résultats et l’interprétation d’une étude de
marché.
2) Le sondage en grappes.
3) Le sondage aréolaire.
L’échantillonnage aréolaire est une méthode d’échantillonnage probabiliste en grappe qui
consiste à découper en zones géographiques un territoire déterminé, à tirer au sort un certain
nombre de ces zones et à interroger tous les individus statistiques y résidant. (Exemple : étude
portant sur les agriculteurs d’un pays, on peut découper la carte agricole en zones
équivalentes).
Le chargé d’étude devra prendre garde au risque de tirer au sort une zone exceptionnelle ou
des zones très proches sociologiquement, ce qui biaiserait inévitablement les résultats.
Son intérêt est d’éviter les sous représentations d’une strate dans l’échantillon qui pourrait
résulter d’un sondage aléatoire simple. Ainsi le sondage proportionnel assure un taux de
sondage ni/Ni à chaque strate égale à celui de l’ensemble de la population n/N.
L’un des avantages du sondage stratifié par rapport aux autres méthodes probabilistes est qu’il
accroît en principe la précision de l’estimation. En outre, le sondage stratifié proportionnel
(dit également stratifié représentatif) a l’avantage décisif que très souvent, on adopte des taux
de sondages uniformes. Il n’en reste pas moins vrai que dans certaines conditions bien
précises, Le chargé d’études a intérêt à opter pour une stratification non proportionnelle.
Il se caractérise par un taux de sondage différent par strate. Autrement dit, la taille de
l’échantillon dans chaque strate n’est pas proportionnelle à sa taille dans la population. Les
raisons qui poussent à utiliser un tel sondage sont diverses mais les plus importantes d’entre
elles sont :
- La précision de l’estimation;
- L’hétérogénéité des strates;
- L’intérêt commercial ou l’importance de la strate dans l’étude à réaliser ;
- Le coût de l’enquête.
On peut décider d’interroger proportionnellement plus de personnes faciles à questionner que
d’individus peu enclins à répondre. Il existe une formule de la répartition optimum qui
minimise la variance totale de l’estimation de la moyenne. Malheureusement, son utilisation
impose de connaître en plus du rapport entre population de la strate et la population total
(Ni/N), les écarts types dans chaque strate. En pratique, cela n’est pas possible avant de
procéder à l’enquête elle-même à moins de se contenter des résultats d’études antérieurs. ni =
(Ni/N)i / (Ni/N)i *n.
Ex : Une brasserie mène des enquêtes sur les grossistes répartis en zone pour estimer
la moyenne des ventes en HL.
Strate des grossistes Tailles Ni Vol des ventes en hl Ecart type i/hl
Nordistes 2000 15 5
Sudistes 8000 10 2
Total 10000
n2 = 8000*150/10000 = 120.
Les auteurs soulignent que « à moins que les variances dans les strates ne soient très
différentes, la répartition optimale n’améliore que très peu la précision de l’estimation. Dans
recherches en marketing, on se contente le plus souvent d’une répartition proportionnelle. De
plus, dans la pratique des sondages, on a toujours intérêt à prendre les méthodes probabilistes
D’une manière générale, pour éviter les désagréments qui résulteraient de l’accroissement des
difficultés de l’enquêteur, il est préférable de se limiter à 3 ou 4 variables de contrôle dont la
plupart resteront indépendantes. En revanche, afin de limiter les biais liés à la relative liberté
de l’enquêteur et de tenter l’amélioration de la représentativité de l’échantillon, on peut
associer la méthode des quotas aux autres méthodes, le plus souvent probabilistes telles que la
méthode aréolaire ou la méthode aléatoire (tirage au sort dans un annuaire puis interviewer
les seules personnes ayant le profil demandé). Dans certains cas, on associera la méthode des
quotas avec d’autres méthodes empiriques comme la méthode des itinéraires ou la méthode
d’échantillonnage sur place.
Dans la méthode des itinéraires, deux procédés sont utilisés : celui qui consiste à remettre une
carte de la ville ou de la zone géographique à chacun des enquêteurs sur laquelle est tracé le
trajet à suivre et sont indiqués les points d’enquêtes ; celui plus compliqué qui nécessite la
définition du point et de l’heure de départ et de règles précises mais adaptées à toutes les
situations.
Les sondages à la sortie d’un magasin ou des caisses d’une grande surface reposent sur les
principes de l’échantillonnage sur place à la différence près qu’étant donné l’unicité de lieu,
l’échantillonnage n’est que temporel. Pour réduire les biais dus aux enquêteurs, notamment au
fait que ces derniers peuvent avoir tendance à n’enquêter que des personnes avenantes, le
chargé d’études peut leur ajouter des contraintes de quotas par exemple.
En règle générale, le niveau de confiance de 95% est adopté. Ce qui signifie qu’en tirant 100
fois de suite un échantillon de la population à étudier, sur 100 échantillons ainsi obtenus, il y
en aurait 5 dont les résultats risqueraient de s’écarter de plus ou moins (e) des résultats des 95
autres. En simplifiant, certains auteurs l’expriment en disant qu’il y a 95 chances sur 100 pour
que l’estimation soit comprise dans l’intervalle de confiance [p-e, p+e].
Le p peut être estimé en réalisant une pré-enquête ou une enquête pilote sur un échantillon de
taille au moins égale à 30.
= 505 clients
Dans la pratique, il est assez rare qu’une enquête pilote soit réalisée ou que les estimations
soit périodiques (sauf cas de panel ou baromètre). Il faut donc se placer dans une situation « à
la normande » du type 50%-50%. Pour l’exemple précédent on aurait
Donc, il est possible de dire par exemple qu’en prenant 100 échantillons de 625 individus, il
n’y en aurait que 5 au plus dont les résultats se situeraient en dehors de la fourchette [50%-
4%, 50%+4%] soit [46%, 54%].
Ces calculs de taille minimale et de marge d’erreur ne peuvent être effectués, en principe que
lorsque la méthode d’échantillonnage est probabiliste. Toutefois, dans la pratique, ils sont
faits également quand la méthode est empirique.
Mais alors, pour tenir compte des biais d’échantillonnage, par exemple dans le cadre d’un
sondage par quotas, certains spécialistes (pas tous) préconisent d’appliquer la correction de
Kish en multipliant la valeur de la marge d’erreur par le coefficient 1,4. Ainsi un échantillon
par quotas de 650 personnes avec un niveau de confiance de 59%, la marge d’erreur n’est pas
de 4% mais de 5,6%.
En revanche, lorsque le sondage est dit exhaustif, c’est-à-dire quand le taux de sondage n/N
est supérieur ou égale à 1/7, la taille de la population (petite par rapport à la taille de
l’échantillon), aura une incidence sur la taille minimale de l’échantillon. Ce phénomène est dû
au fait qu’en quelque sorte, on se rapproche d’un recensement.
II) Les autres méthodes pour fixer la taille minimale d’un échantillon
Les formules de détermination de la taille minimale d’un échantillon ne sont utilisables que
lorsque la méthode d’échantillonnage est probabiliste. Toutefois, nous l’avons déjà souligné
que certains chargés d’études s’accordent le droit de les utiliser dans le cadre de méthodes
empiriques, avec ou sans correctif (correction de Kish).
La rédaction du questionnaire est sans doute la phase la plus délicate dans la mise en
œuvre d’une enquête, quelque soit sa nature. Son analyse est faite en cinq points : la
formulation, le codage, la logique et le contenu, le pré-test du questionnaire, l’administration
et les difficultés de l’enquête.
1. La formulation du questionnaire
Les informations à recueillir ayant été identifiées, il s’agit de les traduire en
questions. Les problèmes majeurs qui se posent à ce niveau sont ceux de la forme des
questions et de leur libellé. Il faut signaler que le questionnaire a pour objet de mesurer et de
décrire des faits. Dans ces conditions, il est évident que même en assurant l’anonymat des
réponses, il est toujours à craindre que les réponses soient inexactes ou que l’enquêté évite de
répondre à certaines questions.
2. Le codage du questionnaire
Les items peuvent être mesurés sur des échelles d’intervalles (échelle de Likert à 3 ou 5
points), nominale et ordinale. Ces échelles permettent en effet, d’obtenir des informations et
se prêtent à un nombre important d’analyses.
Codage 1 2 3
Echelle nominal : oui (1) et non (2), échelle ordinal : faible (1) moyen (2) et élevé (3)
Après avoir formulé le questionnaire, il ne nous reste plus qu’à le prétester avant de
l’administrer.
Après la phase de rédaction du questionnaire, celui-ci doit être prétesté auprès de quelques
individus de la population de l’étude. Cette opération a pour but de vérifier que les
informations nécessaires à la validation des différentes hypothèses font bien l’objet d’une
question ; que le questionnaire n’est pas lourd et ambigu ; qu’il permet d’obtenir un grand
nombre possible de réponses sincères, utiles et se prêtent aux traitements statistiques
envisagés. La finalité est donc, de repérer les redondances éventuelles et d’évaluer la
compréhension des questions par les enquêtés. Après cette étape, on peut apporter quelques
modifications au questionnaire avant de l’administrer.
Administration du questionnaire