Guide Version1.0

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 56

Guide

méthodologique
D’EVALUATION DES
POLITIQUES PUBLIQUES

VERSION PROVISOIRE

CENTRE D’ANALYSE DES POLITIQUES ECONOMIQUES ET SOCIALES DE


LA PRESIDENCE DU FASO
0
Avant-propos
Dans le cadre de la mise en œuvre du PNDES, plusieurs parties prenantes ont été identifiées
et ont pour rôle de faire le suivi-évaluation de politique sectorielle. Au-delà donc de l’État
central, des nouveaux acteurs tels que les Organisations de la société civile, le secteur privé,
les collectivités locales, les PTF pourront prendre l’initiative d’évaluation de
projet/programme/politique économique ou sociale. La présence de plusieurs acteurs avec
des capacités hétérogènes de développement d’outils, d’analyse ou d’évaluation des
politiques économiques et sociales a amené le Centre d’Analyse des Politiques Economiques
et Sociales à mettre en place un guide y dédié.

Le guide s’inscrit dans l’approche de décentralisation de l’analyse ou l’évaluation des


politiques économiques et sociales dans le but d’une efficacité rapprochée et de proximité de
la mesure des effets des politiques publiques. Son objet est de favoriser une compréhension
commune et une pratique fiable et harmonisée de l’évaluation des
projets/programmes/politiques au Burkina Faso.

Remerciements
Ce guide a été élaboré par le Centre d’Analyse des Politiques Economiques et Sociales de la
Présidence du Faso avec l’appui financier de la Fondation pour le Renforcement des
Capacités en Afrique (ACBF). Nous voudrions exprimer nos remerciements à toutes les
personnes qui ont contribué de leurs temps, leurs connaissances et leurs expertises à sa
réalisation. Nous tenons à remercier tout particulièrement les partenaires du CAPES du
secteur public et privé, des OSC et des collectivités territoriales.

i
Table des matières
Avant-propos .................................................................................................................................................... i
Remerciements ................................................................................................................................................ i
Abréviations et acronymes............................................................................................................................. iv
Listes des figures ............................................................................................................................................. v
Liste des tableaux ........................................................................................................................................... vi
Introduction..................................................................................................................................................... 1
Quel est l’objet de ce guide ? ...................................................................................................................... 1
Qui est le public visé ? ................................................................................................................................. 1
Pourquoi l’évaluation des politiques publiques est importante ? .............................................................. 1
Comment utiliser ce guide ?........................................................................................................................ 2
Commentaires et révision ........................................................................................................................... 2
1 Première partie : Concepts et considérations liés à l’Evaluation des politiques publiques .................... 3
1.1 Gestion axée sur les résultats ......................................................................................................... 4
1.2 Structure logique d’un projet ou d’un programme ........................................................................ 4
1.3 Chaine de valeur d’une action publique ......................................................................................... 5
1.4 Qu’entend-t-on par évaluation ? .................................................................................................... 5
1.4.1 Finalités ...................................................................................................................................... 5
1.4.2 Objets ......................................................................................................................................... 5
1.4.3 Moment ...................................................................................................................................... 6
1.4.4 Les parties prenantes ................................................................................................................. 7
1.5 Questions, critères et typologies de l’évaluation ........................................................................... 7
1.5.1 La question évaluative ................................................................................................................ 7
1.5.2 Les critères de l’évaluation ......................................................................................................... 7
1.5.3 Les critères de l’évaluation Vs la logique d’intervention............................................................ 8
1.5.4 Les critères de l’évaluation Vs les questions d’évaluation ......................................................... 9
1.5.5 Les typologies de l’évaluation .................................................................................................... 9
1.6 Etude de référence initiale et finale ............................................................................................. 10
1.7 Normes et éthiques dans le cadre de l’évaluation ....................................................................... 11
2 Deuxième partie : les étapes clés de l’EPP ............................................................................................ 12
2.1 Démarche proposée ..................................................................................................................... 13
2.2 Phase : Préalable........................................................................................................................... 13
2.3 Phase 1 : Cadrage opérationnel .................................................................................................... 14
2.4 Phase 2 : Diagnostic ...................................................................................................................... 15
2.5 Phase 3 : Scénarios ....................................................................................................................... 15

ii
2.6 Phase post évaluation................................................................................................................... 15
2.7 Stratégie d’évaluation................................................................................................................... 16
2.7.1 Modèles et méthodes d’évaluation ......................................................................................... 16
2.7.2 Méthodes de collecte de données ........................................................................................... 17
2.8 Fiches techniques ......................................................................................................................... 21
2.8.1 Fiches techniques des évaluations ex ante .............................................................................. 22
2.8.2 Fiches techniques des évaluations formatives ou à mi-parcours............................................. 25
2.8.3 Fiches techniques des évaluations ex post............................................................................... 28
2.8.4 L’équipe d’évaluation ............................................................................................................... 29
2.9 Rapport d’évaluation : structuration type et contenu ................................................................. 30
2.10 Valorisation des résultats de l’évaluation .................................................................................... 33
2.11 L’évaluation, une théorie de changement et d’organisation apprenante.................................... 34
ANNEXE ......................................................................................................................................................... 35
Annexe 1 : Cadre logique ............................................................................................................................. I
Annexe 2 : Format du TDR........................................................................................................................... II
Annexe 3 : Format fiche de cadrage............................................................................................................ V
Annexe 4 : Plan synoptique du cahier de charge ou rapport de démarrage ............................................ VI
Annexe 5 : Liste indicatives de questions évaluatives............................................................................... VII
Annexe 6 : Quelques ressources en ligne pour l’évaluation ...................................................................... XI

iii
Abréviations et acronymes

ACBF : Fondation pour le Renforcement des Capacités en Afrique


ACDI : Agence Canadienne pour le Développement International
CAD/OCDE : Organisation de Coopération et de Développement Économiques
CAPES : Centre d’Analyse des Politiques Economiques et Sociales
FIDA : Fonds International de Développement Agricole
MOA : Maitrise d’ouvrage
MOE : Maitrise d’œuvre
ONG : Organisation Non Gouvernementale
OSC : Organisations de la Société Civile
PTF : Partenaires Techniques et Financiers
TDR : Termes de Références
TSI : tableau de Suivi des Indicateurs
UNICEF : Fonds des Nations Unies pour l'Enfance

iv
Listes des figures

Figure 1 : Structure logique d'un projet-programme ...................................................................................... 4


Figure 2 : Chaine de valeurs de l'action publique ........................................................................................... 5
Figure 3 : Objets de l'évaluation...................................................................................................................... 6
Figure 4 : Moment de réalisation de l'évaluation ........................................................................................... 6
Figure 5 : Critères de l'évaluation Vs logique d'intervention projet/programme ........................................... 8
Figure 6 : Critères d'évaluation Vs logique d'intervention d'une action publique .......................................... 9
Figure 7 : Schéma directeur pour conduire une évaluation .......................................................................... 13
Figure 8 : Exemple de triangularisation de données ..................................................................................... 19

v
Liste des tableaux
Tableau 1 : Types de question évaluation ....................................................................................................... 7
Tableau 2 : Définition des critères de l'évaluation .......................................................................................... 8
Tableau 3 : Critères de l'évaluation Vs les questions d'évaluation ................................................................. 9
Tableau 4 : Typologies de l'évaluation ............................................................................................................ 9
Tableau 5 : Matrice de l'évaluation ............................................................................................................... 14
Tableau 6 : Evaluation ex ante des intentions............................................................................................... 22
Tableau 7 : Evaluation ex ante de l'implantation de l'intervention .............................................................. 22
Tableau 8 : Analyse coût-bénéfice ................................................................................................................ 23
Tableau 9 : Evaluation d'impact prospective ................................................................................................ 24
Tableau 10 : Evaluation des effets et impacts probables d'une intervention ............................................... 24
Tableau 11 : Evaluation d'implantation d'une intervention .......................................................................... 25
Tableau 12 : Evaluation de la production d'une intervention ....................................................................... 26
Tableau 13 : Evaluation des effets d'une intervention.................................................................................. 27
Tableau 14 : Evaluation économique ............................................................................................................ 27
Tableau 15 : Evaluation des effets et impacts ............................................................................................... 28
Tableau 16 : Analyse coût-bénéfice d'une intervention achevée ................................................................. 29
Tableau 17 : Structuration d'un rapport d'évaluation................................................................................... 30

vi
Introduction
Quel est l’objet de ce guide ?
L’objet du présent guide est de favoriser une compréhension commune et une pratique f iable
et harmonisée de l’évaluation des projets/programmes/politiques au Burkina Faso. Il s’agit
d’une référence documentaire qui complète les outils déjà existants et qui se veut d’être plus
concis et plus facile à utiliser. Il ne sera pas destiné à être lu d’un bout à l’autre, mais de
permettre au lecteur, en cas de besoin, à y trouver des informations détaillées.

Il s’inscrit dans l’approche de décentralisation de l’analyse ou l’évaluation des politiques


économiques et sociales dans le but d’une efficacité rapprochée et de proximité de la mesure
des effets des politiques publiques.

Qui est le public visé ?


Ce guide s’adresse aux personnes qui sont parties prenantes à l’analyse des effets des
politiques/programmes/projets publiques au Burkina Faso qu’elles soient du secteur public ou
du secteur privé ou de la société civile. Il a été conçu de façon à être compris par d’autres
utilisateurs, sans qu’ils n’aient obligatoirement des connaissances pointues du domaine. Bien
qu’il soit destiné à être utilisé pour des programmes/projets mis en œuvre à l’échelle nationale,
il peut être appliqué aux projets/programmes à d’autres échelons notamment au niveau des
collectivités locales.

Pourquoi l’évaluation des politiques publiques est


importante ?
Il est unanimement accepté par les pouvoirs publiques et leurs parties prenantes, qu'il y'a un
lien de causalité entre l'évaluation des politiques/programmes/projets de développement et la
lutte contre la pauvreté notamment pour l'atteinte des résultats portés par ceux-ci. A ce titre,
des mesures spécifiques ont été prises pour faire la promotion de l'évaluation des politiques
publiques dans les États de l'Afrique Subsaharienne, soit du fait des États eux même (création
de ministère, directions dédiées) soit par le fait d'organisme ou partenaire technique et/ou
financier au développement.

Dans les pays subsahariens, notamment au Burkina-Faso, les documents porteurs de


politiques nationales de développement, spécifiquement sur la dernière décennie sont
accompagnés d'un dispositif de suivi-évaluation. L’important rôle de la fonction du suivi-
évaluation y est mentionné dans la réussite de ces différentes politiques nationales de
développement. Des cadres de dialogue ou des institutions spécifiques y sont créés.

L'analyse des politiques/programmes/projets ne peut être faite seulement ou exclusivement


par l'État central en charge de leur mise en œuvre. Suivant les acteurs, la finalité n'est pas la
même. Il y'a lieu d'outiller les parties prenantes au développement de chaque pays à
s'approprier les outils pour pouvoir l'initier elles-mêmes dans un contexte de démocratie et de
redevabilité vis à vis de l'action des parties publiques, encore plus exigées.

A ce titre il parait pertinent qu’il urge d’agir au renforcement des capacités des parties
prenantes à pouvoir jouer le rôle de suivi-évaluateur et de manière plus spécifique à pouvoir
analyser les effets des politiques sociales et économiques mises en œuvre. C’est pourquoi,

1
de par sa mission, le Conseil d’analyse des politiques économiques et sociales de la
Présidence du Faso prend l’initiative de proposer un guide à l’attention de diverses parties
prenantes dans le but de les renforcer à jouer le rôle qui est le leur pour la bonne mise en
œuvre des politiques publiques.

Comment utiliser ce guide ?


Ce guide est divisé en trois parties : la première partie souligne les concepts majeurs du suivi
et de l’évaluation ; la deuxième partie met en évidence les étapes clés de mise en œuvre d’un
projet d’évaluation de politique publique ; et les annexes présentent des outils, des ressources,
supplémentaires. L’annexe 1 mentionne des ressources complétant celles qui sont présentées
dans ce guide.

Commentaires et révision
Ce guide sera régulièrement révisé et mis à jour de façon à tenir compte des enseignements
tirés sur terrain, et pour en assurer la conformité avec les normes internationales. Les
suggestions ou les questions peuvent être adressées au Centre d’Analyse des Politiques
Economiques et Sociales de la Présidence du Faso (adresse CAPES)

2
1 Première partie : Concepts et considérations liés à
l’Evaluation des politiques publiques

3
1.1 Gestion axée sur les résultats
La gestion axée sur les résultats est une approche globale de la gestion des projets et des
programmes par laquelle les pays s'engagent à gérer et à mettre en œuvre l'action publique
en se concentrant sur les résultats souhaités et en utilisant les données possibles en vue
d'améliorer le processus de décision. Elle vise principalement à définir, avant tout mise en
œuvre, des résultats mesurables ainsi que les méthodologies et les outils à utiliser pour obtenir
ces résultats. Ce mode de travail contribue à améliorer la performance et la redevabilité grâce
à une logique claire : il s’agit de planifier, de gérer et de mesurer une intervention en se
concentrant sur les résultats que l’on veut obtenir. En définissant à l’avance les résultats
attendus d’une intervention et les moyens de déterminer s’ils ont été atteints, il s’agit de pouvoir
au mieux observer si l’action publique a réellement eu un impact sur la cible concernée.

1.2 Structure logique d’un projet ou d’un programme


Le projet est un ensemble d’activités interdépendantes réalisées dans le but d’atteindre un
résultat spécifique sous contrainte de délai, qualité et coût. Le programme est un ensemble
de projet ayant le même but. La politique publique peut être opérationnalisée par un ensemble
de programme y contribuant. Il est accepté qu’une politique soit un ensemble de programmes ;
et le programme soit un ensemble de projets cohérents. Une politique publique est à la fois
une vision d’un enjeu pour la sphère publique, et un document rédigé par des acteurs
gouvernementaux présentant cette vision d’un enjeu susceptible d’une action publique et,
accessoirement, les aspects légaux, techniques, pratiques et opérationnels de cette action

Pour leur mise en œuvre, le projet ou le programme vient répondre à un besoin et se met en
œuvre suivant la structure logique ci-après :
Figure 1 : Structure logique d'un projet-programme

des moyens sont


•Intrants
mobilisés

pour réaliser des


activités
•Activités

dont les produits •Produits

produisent des
résultats
•Résultats

et un impact sur
le •Impact
développement

4
1.3 Chaine de valeur d’une action publique
L’action publique dans la plupart des cas est organisée suivant une chaine de valeur
représentée ci-après. Elle part d’un besoin à satisfaire pour atteindre des objectifs souhaités,
auxquels on affecte des ressources pour réaliser des actions qui doivent produire des
résultats, ayant un impact sur le développement.
Figure 2 : Chaine de valeurs de l'action publique

Besoins Objectifs Ressources Actions Résultats Impacts

1.4 Qu’entend-t-on par évaluation ?


L’évaluation est une fonction qui consiste à porter une appréciation, aussi systématique et
objective que possible, sur un projet en cours ou achevé, un programme ou un ensemble de
lignes d’actions, sa conception, sa mise en œuvre et ses résultats. Il s’agit de déterminer la
pertinence des objectifs et leur degré de réalisation, l’efficience au regard du développement,
l’efficacité, l’impact et la viabilité.

L’évaluation de politique publique est un processus qui vise à déterminer le mérite, la valeur,
et la significativité d’une politique publique ou de ses composantes pour voir ce qui fonctionne
ou non, pour qui, dans quelle mesure, dans quelles circonstances, comment, pourquoi, selon
qui, quelles en sont les conséquences et qu’est-ce qui devrait ou pourrait être fait. L’évaluation
s’intéresse aussi bien aux effets escomptés qu’à ceux qui ne le sont pas, que ceux-ci soient
positifs ou négatifs.

1.4.1 Finalités
Les finalités de l’évaluation sont fonction des parties prenantes :

- Décider pour le responsable,

- Gérer et contrôler pour le gestionnaire ou l’opérateur en charge de la mise en œuvre,

- Savoir, comprendre et tirer des enseignements pour le chercheur,

- Connaitre, être informé pour le public, les bénéficiaires et les partenaires techniques
et financiers.

1.4.2 Objets
L’évaluation porte sur des objets de taille variable que sont : le projet, le programme et la
politique.

5
Figure 3 : Objets de l'évaluation

Politique

Programme

Projet

Projet

1.4.3 Moment
Les moments pour réaliser une évaluation sont celles de mise en œuvre d’un projet,
programme ou politique. Que ça soit à l’identification ou à la préparation du projet ; le
démarrage, la réalisation ou la fin du projet ; ou quelques années après le projet (post),
l’évaluation peut se réaliser. Suivant les moments, l’objectif visé varie :

- Vérifier la conception avant le démarrage du projet ou de l’intervention évaluée,

- Améliorer la mise en œuvre pendant le projet ou l’intervention évaluée,

- Rendre compte à la fin du projet ou de l’intervention évaluée,

- Déterminer l’impact du projet ou de l’intervention des années après sa réalisation.


Figure 4 : Moment de réalisation de l'évaluation

Identication &
préparation du projet Post projet
•Etude de faisabilité •Evalution retrospective
(Evaluation ex ante) (d'impact)

Démarrage -
Réalisation - fin projet
•Evaluation en cours
•Evaluation à mi parcours
•Evaluation finale

6
1.4.4 Les parties prenantes
Les parties prenantes à l’évaluation varient suivant le type de l’évaluation. Il s’agit : i)
l’opérateur en charge de la mise en œuvre du projet ou de l’action objet de l’évaluation
(Maitrise d’œuvre, MOE), ii) l’organisme commanditaire du projet ou de l’action (Maitrise
d’ouvrage, MOA), iii) les bénéficiaires du projet ou de l’action, iv) les bailleurs du projet ou de
l’action évaluée et v) l’opérateur en charge de conduire de l’évaluation. D’une manière
synthétique, il s’agira très souvent d’un commanditaire de la commande de l’évaluation, d’un
opérateur en charge de sa mise en œuvre (l’évaluateur) et des parties prenantes à sa
réalisation : l’opérateur en charge de la mise en œuvre du projet ou de l’action évalué, les
bénéficiaires, les bailleurs et le MOA.

Dans le cadre du contrôle citoyen de l’action publique, il est noté que la société civile, les
Organisations non gouvernementales ou toute personne morale ou physique intéressée par
la mise en œuvre d’une action publique peut initier une intervention d’évaluation.

1.5 Questions, critères et typologies de l’évaluation


La fonction d’évaluation s’exprime à travers des questions autour des critères bien définis et
suivant le type d’évaluation.

1.5.1 La question évaluative


Elle exprime une préoccupation à l’état brut, un besoin que ressent le commanditaire et
constitue le meilleur moyen de se comprendre et de s’entendre entre commanditaire et
évaluateur. Elle s’exprime en langage courant.

Trois types de question sont identifiés et classées ainsi qu’il suit :


Tableau 1 : Types de question évaluation

Type de question Exemple


Descriptives Comment s’est déroulé le programme, le profil du
personnel en poste était-il adapté, le projet au départ
était-il cohérent…
Normatives Les coûts unitaires sont-ils conformes à ceux des
établissements de même nature, le taux d’insertion
après formation est-il satisfaisant, la part des
dépenses publiques…
D’impact Les revenus des groupes cibles ont-ils été améliorés
durablement, dans quelle mesure l’amélioration de
l’état sanitaire résulte du projet…
Source : Adapté Banque Mondiale, 20121

Suivant les questions, les instruments convoqués diffèrent : étude de cas, analyse cout-
bénéfice, analyse cout-efficacité, etc.

1.5.2 Les critères de l’évaluation


Les critères de l’évaluation sont divers. Ceux-ci font l’unanimité, il s’agit de : la pertinence, la
cohérence, l’efficacité, l’efficience, l’impact et la durabilité (pérennité).

Le tableau ci-après définit chacun de ces critères.

1
Module 5, Banque Mondiale, International program for development evaluation trainin, 2012

7
Tableau 2 : Définition des critères de l'évaluation

Critère Définition
Pertinence Mesure dans laquelle une intervention est adaptée aux priorités des parties prenantes
(par exemple, la population locale et les donateurs). Elle étudie aussi les autres
approches qui auraient pu être plus adaptées pour répondre aux besoins identifiés.
Cohérence Mesure en lien avec le critère de la pertinence. Elle vise à voir si le projet répond
effectivement à un besoin, combien de structures sont-elles attelées à y répondre, les
structures sont-elles complémentaires ou en situation de concurrence ? (cohérence
externe). En outre, elle mesure aussi l’adéquation entre le projet et l’objet de
l’organisation qui le porte.
Efficacité Mesure dans laquelle une intervention a atteint, ou est susceptible d’atteindre, les
résultats immédiats escomptés
Efficience Mesure dans laquelle les résultats ont été obtenus de la manière la moins coûteuse
possible – mesure selon laquelle les ressources (fonds, expertise, temps, etc.) sont
converties en résultats de façon économe. (OCDE/CAD 2002).
Impact Effets à long terme, positifs et négatifs, primaires et secondaires, induits par une action
de développement, directement ou non, intentionnellement ou non. (CAD/OCDE
2002).
Durabilité La mesure dans laquelle les apports d’une intervention sont susceptibles de se
maintenir une fois que les contributions des donateurs ont pris fin. La durabilité peut
être environnementale, institutionnelle et financière.

1.5.3 Les critères de l’évaluation Vs la logique d’intervention


1.5.3.1 Par rapport à un projet/programme
Par rapport à un projet/programme, les critères évaluatifs peuvent s’appliquer à la logique
d’intervention ainsi qu’il suit :
Figure 5 : Critères de l'évaluation Vs logique d'intervention projet/programme

Source adapté Banque Mondiale, 20122

1.5.3.2 Par rapport à une action publique


Par rpport à une acion publique, les critères évaluatifs peuvent s’appliquer à la logique
d’intervention ainsi qu’il suit :

2
Banque Mondiale, International program for development evaluation trainin, 2012

8
Figure 6 : Critères d'évaluation Vs logique d'intervention d'une action publique

Source : Adapté SGMAP, 20153

1.5.4 Les critères de l’évaluation Vs les questions d’évaluation


Les questions d’évaluation susceptibles d’appréhender les critères évaluatifs sont présentées
dans le tableau ci-après :
Tableau 3 : Critères de l'évaluation Vs les questions d'évaluation

Critères évaluatifs Questions évaluatives


Pertinence Le programme était-il bien approprié ou adéquat pour atteindre le but général
poursuivi ? L’objectif est-il toujours d’actualité aujourd’hui ? Le programme
correspond-il toujours aux attentes des parties-prenantes ?
Cohérence Dans la conception originelle du programme, les objectifs étaient-ils (sont-ils)
cohérents entre eux, les activités prévues permettaient-elles d’atteindre les
objectifs opérationnels visés, les moyens prévus permettaient-ils de réaliser les
activités envisagées dans les temps impartis ?
Efficacité Comment le projet, la politique a-t-il (elle) fonctionné ? Les ressources ont-elles
été bien mobilisées ? Les couts unitaires sont-ils dans les normes ? Les résultats
immédiats escomptés ont-ils été effectivement obtenus et dans quelles
conditions de qualité, coût et délais ? Les résultats ont-ils été à la mesure des
sommes dépensées ? Les exigences contractuelles ont-elles été respectées ?
Efficience Quel est le niveau d’atteinte de l’objectif principal du projet ? Le programme a-t-
il eu les effets attendus au niveau des bénéficiaires (correction des déséquilibres,
renforcement institutionnel, modifications de comportement, etc.) ?
Impact Le programme a-t-il contribué à corriger le problème visé (niveau de pauvreté par
exemple) ou à produire le développement escompté ? A-t-il des effets négatifs
imprévus ? Les conséquences globales du programme sont-elles bénéfiques ?
Durabilité Les effets du projet ou du programme seront-ils durables ? Les mécanismes mis
en place sont-ils viables ?
Réplicabilité La politique peut-elle être reproduite ? A quelles conditions ?

1.5.5 Les typologies de l’évaluation


Les différents types d’évaluation suivant la temporalité, l’objet, le mode de réalisation ou les questions
évaluatives sont présentés dans le tableau ci-après :
Tableau 4 : Typologies de l'évaluation

Temporalité Objet Mode de réalisation Questions évaluatives


Evaluation ex ante: Evaluation Evaluation interne : Evaluation des
Appréciation du degré d’opérations: focalisée équipe interne intentions ou des

3
Secrétariat général pour la modernisation de l’action publique, Primature France, (2015). EPP : principes,
processus et méthodes.

9
d'atteinte des objectifs sur des solutions aux besoins: pertinence et
avant la mise en œuvre problèmes de gestion cohérence
de l'intervention.
Evaluation formative Evaluation de secteur: Evaluation externe: Evaluation de l'effort
ou à mi-parcours: évaluation réalisée dans consultants externes consenti: relation entre
enrichissement de la un domaine caractérisé les ressources, la
connaissance et mise à par l'existence quantité et la qualité
disposition de d'expertise, de des livrables
l’information pour méthodologies et outils
améliorer l'intervention. particuliers
suffisamment
développés
Evaluation finale: Evaluation thématique: Auto-évaluation: Evaluation des effets et
appréciation des genre, participation acteurs impliqués dans impacts: établissement
conséquences à court citoyenne etc. la mise en œuvre de de la causalité entre es
terme l'intervention résultats observés et
l'intervention.
Evaluation ex-post: Evaluation du Evaluation conjointe: Evaluation
effets à moyen ou long développement: Valeur équipe mixte économique: efficience
terme, durabilité des de l'intervention dans le de l'intervention ou
résultats et leçons pour processus de relations entre les
des interventions développement ressources et les effets
futures obtenus
Evaluation
participative:
implication des acteurs
surtout les bénéficiaires
Meta-évaluation:
évaluation de
l'évaluation
Source : MPD (2016)4

1.6 Etude de référence initiale et finale


Une étude de référence initiale (parfois simplement appelée « étude de référence ») est une
analyse décrivant la situation initiale (indicateurs appropriés) avant le lancement d’un
projet/programme, à partir de laquelle les progrès peuvent être mesurés ou des comparaisons
établies. Une étude de référence finale est menée au terme du projet (elle est généralement
réalisée dans le cadre de l’évaluation finale du projet) pour faire des comparaisons avec la
situation initiale et mesurer le changement. La réalisation d’une étude de référence initiale est
fondamentale pour mesurer les effets du projet ou du programme. Il en est de l’étude de
référence finale qui lui est similaire et qui peut être menée au cours du projet/programme aux
fins de comparer des données pour déterminer l’impact.

Les études de référence initiale et finale ne sont pas en soi des évaluations, mais constituent
une partie importante de la mesure du changement. Elles contribuent en général à l’évaluation
des projets/programmes (p. ex., évaluation finale ou de l’impact), mais peuvent aussi faciliter
le suivi des changements dans les projets/programmes à long terme. Les données de
référence d’une étude initiale sont utilisées à des fins de comparaison au cours du
projet/programme et/ou à son achèvement (étude de référence finale) afin de déterminer dans
quelle mesure les objectifs du projet/programme ont été atteints.

4
Ministère du Plan et du Développement Bénin, (2016). Guide méthodologique national d’évaluation.

10
1.7 Normes et éthiques dans le cadre de l’évaluation
La démarche de mise en œuvre des évaluations doit être conforme aux normes et éthiques
en la matière.

Quatre principes directeurs sont retenus pour sa mise en œuvre. Il s’agit de :

- outil d’aide à la décision : en fournissant aux décideurs des scénarios alternatifs à


même de déboucher sur une prise de décision puis une mise en œuvre de la
transformation/intervention souhaitée,

- participation et transparence : en associant les acteurs et les bénéficiaires de la


politique pour faciliter l’appropriation collective des besoins de transformation ; en
rendant compte et en communiquant sur les évaluations des politiques publiques pour
renforcer et contribuer à l’enracinement de la démocratie,

- analyse multicritère : en interrogeant l’ensemble de la chaine de valeur de l’action


publique (pertinence, cohérence, efficacité, efficience, impact, faisabilité)

- méthode : en mettant en œuvre les trois (03) principes précédents dans le cadre d’une
gouvernance et d’un protocole de travail (TDR) opposables aux commanditaires, aux
évaluateurs et aux parties prenantes.

L’évaluation comprend la collecte, l’analyse et la communication d’informations sur des


personnes. Par conséquent, il est essentiel qu’elle soit menée dans le respect de l’éthique et
des lois, en accordant une attention toute particulière aux intérêts des personnes concernées.

Des principes directeurs de propriété formulés par Américan Evaluation Association5, peuvent
être pris en compte :

- l’orientation du service : l’évaluation doit répondre efficacement aux besoins des


parties prenantes ciblées ;

- l’accord formel : les obligations des parties prenantes à l’évaluation (Que faut-il faire ?
Comment ? Par qui ? et Quand ?) doivent être convenues à travers des dialogues et
des écrits pour qu’elles aient une compréhension commune de toutes les clauses de
la convention ;

- le droit des parties prenantes et les rapports humains : l’évaluation doit respecter
la dignité humaine et les droits de l’Homme ;

- l’évaluation complète et satisfaisante : l’évaluation doit être complète et


satisfaisante dans l’examen et l’enregistrement des forces et des faiblesses de
l'intervention évaluée, de telle sorte que les forces puissent être reconstituées et tous
les problèmes abordés ;

- la diffusion des conclusions : les parties prenantes à une évaluation doivent être
informées des résultats de l’évaluation, y compris ses limites, en garantissant la
confidentialité afin de ne pas exposer les agents d’exécution et les évaluateurs aux
intimidations ;

5
American Evaluation Association, tiré de OCS (2009, p.17-18).

11
- les conflits d’intérêts : ils doivent être réglés de façon objective pour ne pas
compromettre le processus évaluatif et les résultats de l’évaluation ;

- les responsabilités fiscales : les honoraires et dépenses relatifs à l’évaluation doivent


respecter les procédures et lois en vigueur.

2 Deuxième partie : les étapes clés de l’EPP

12
2.1 Démarche proposée
L’évaluation d’une action publique (projet ou programme) peut être conduite à travers cinq (05)
phases. Il s’agit de :

- Une phase préalable d’orientation politique,

- Une phase de cadrage opérationnel,

- Une phase de diagnostic,

- Une phase de scénarios

- Une phase post évaluation de valorisation des résultats.


Figure 7 : Schéma directeur pour conduire une évaluation

Source : adapté de SGMAP, 20156

2.2 Phase : Préalable


La phase préalable consiste à choisir l’action à évaluer et d’en définir le cadrage stratégique.
Le choix de l’action dépend des processus et des procédures internes de la structure qui
souhaite la commanditer. Très souvent, il faudra tenir compte du moment le plus propice et
identifier clairement un besoin d’évaluation. Ainsi, la décision du choix de l’action à évaluer
peut être entérinée par un document administratif. Dans certains cas, ce choix peut résulter
d’une injonction des responsables hiérarchiques (au plus haut sommet de l’organisation).

Ensuite, le cadrage stratégique de la commande de l’évaluation consiste à la formuler dans


une fiche de cadrage 7comportant :

- les objectifs de l’action (projet/programme/politique) à évaluer,

- les objectifs de la mission d’évaluation et les attentes par rapport à l’action à évaluer,

- le profil de l’équipe de la mission d’évaluation (auquel cas elle doit être recrutée) ou sa
composition dans le cas où elle est connue déjà,

6
Secrétariat général pour la modernisation de l’action publique, (2015). EPP : principes, processus et méthodes.
7
Annexe 3

13
- dans le cas où l’équipe de la mission est déjà identifiée, il peut être émis une lettre de
mission ou un appel à candidature pour son recrutement (dans le cas échéant).

Enfin, une fois que l’équipe de la mission est identifiée, il est procédé à une orientation politique
de la mission d’évaluation permettant de préciser et de valider avec l’opérateur en charge de
mise en œuvre du projet :

- les modalités de mise en œuvre et les principes de transparence et de participation


des parties prenantes à la mission d’évaluation,

- le calendrier prévisionnel des travaux,

- les attentes en matière de publication de livrables et d’action de communication,

- l’identification des risques éventuels.

Dans certains cas, la fiche de cadrage peut prendre la forme de Termes de Références
(TDR)8 de la mission.

2.3 Phase 1 : Cadrage opérationnel


Le cadrage opérationnel intervient après que l’équipe d’évaluation soit mise en place et les
objectifs de la mission clairement définis.

Il consiste à valider avec l’équipe d’évaluation le cahier de charges de la mission. Il s’agira


donc de valider la méthodologie de prise en charge de la mission. Dans le cas où l’équipe en
charge de l’évaluation a été recrutée suite à un appel d’offres, il s’agit au-delà de son offre
technique de convenir avec les parties prenantes internes d’une feuille de route de la mission.
A cette étape, il faut :

- Définir et valider les questions évaluatives,

- Formaliser le contexte, les objectifs, le périmètre et la méthode de l’évaluation,

L’outil, souvent accepté et utilisé pour la méthode de l’évaluation est la matrice de l’évaluation.
Le tableau ci-après présente un modèle type :
Tableau 5 : Matrice de l'évaluation

N° Critères Questions Indicateur Données Sources Modèle Outils Méthode


évaluatives de base d'évaluation de d'analyse
collecte
Pertinence
Cohérence
Efficacité
Efficience
Impact
Durabilité
Appropriation

8
Annexe 2

14
Elle peut être sanctionnée par l’adoption d’un cahier de charges ou note de cadrage 9. En outre,
afin de faciliter la collecte des données, il faut prévoir les lettres d’introduction de l’équipe
auprès des structures ou personnes vers lesquelles elle peut collecter les données.

Une fois le cadrage opérationnel, la mission peut effectivement se dérouler.

2.4 Phase 2 : Diagnostic


La phase de diagnostic consiste à :

- Conduire les investigations et les analyses

- Répondre aux questions évaluatives

- Formaliser et à présenter un rapport de diagnostic.

Il s’agit de pouvoir exploiter les données disponibles et préparer la collecte et l’exploitation de


données complémentaires au besoin. En outre, il faut organiser les enquêtes ainsi que
l’analyse et l’interprétation des données.

A ce niveau, il peut être élaboré un rapport de diagnostic (à titre de rapport provisoire) qui peut
être partagé avec les diverses parties prenantes. Cependant, pour des raisons pratiques, il est
suggéré d’élargir le rapport provisoire aux différents scénarios de transformation, même s’il
faut réviser plus tard le diagnostic effectué après la discussion et la confrontation avec les
parties prenantes.

Une fois, la phase de diagnostic réalisé, il faut élaborer les divers scénarios de transformation.

2.5 Phase 3 : Scénarios


Il est rappelé que l’évaluation s’inscrit dans une approche d’amélioration continue. A cet effet,
il est souhaité que toute mission d’évaluation aboutisse à des propositions de scénarios de
transformation pour ce qui est de l’amélioration des disfonctionnements observés ou du
maintien des bonnes pratiques.

A cette phase, il s’agira de :

- Définir plusieurs scénarios de transformation,

- Documenter les principaux effets (impacts) attendus de la mise en œuvre de ces


scénarios,

- D’organiser la discussion et la confrontation autour du rapport final,

- Formaliser et de présenter le rapport final.

Le modèle type de rapport final est proposé dans les sections suivantes.

2.6 Phase post évaluation


La phase post évaluation permet de valoriser les résultats de l’évaluation. Elle doit être
séparée du temps de l’évaluation. Elle consiste à :

- Diffuser et communiquer les résultats,

9
Annexe 4

15
- Faire le plaidoyer pour la prise en compte des recommandations effectuées.

Pour ce faire, il faudra donc au niveau de la structure en charge des opérations de l’action
ayant été évaluée de :

- Décliner en opérations le scénario retenu,

- Conduire le suivi et la transformation.

Ces différents éléments peuvent être inscrits dans un plan d’action.

2.7 Stratégie d’évaluation


La stratégie d’évaluation consiste à tenir compte d’un modèle d’évaluation et des outils de
collecte de données qu’on peut lui associer.

2.7.1 Modèles et méthodes d’évaluation


Le modèle d’évaluation consiste à une structure logique pour collecter les données afin de
déterminer si les effets obtenus sont imputables à l’action évaluée. Il varie suivant la typologie
de l’évaluation. Il en existe plusieurs dans la littérature et certains ont été évoqués dans la
section relative aux fiches techniques.

Les méthodes de l’évaluation sont classifiables en deux grands groupes :

- L’évaluation sans groupe témoin subdivisée en deux sous-groupes :

o Observation après mise en œuvre

o Observation avant et après mise en œuvre

- L’évaluation par comparaison avec un groupe témoin subdivisée en deux sous-


groupes :

o Groupe témoin non équivalent

o Groupe témoin équivalent

L’observation après mise en œuvre, facile à mettre en œuvre, consiste à constater de quelle
manière la politique a été mise en œuvre, de mesurer les résultats immédiats atteints et
d’améliorer la compréhension des comportements des groupes bénéficiaires par rapport aux
mécanismes de mise en œuvre.

Elle comporte un grand risque de subjectivité (du fait de l’absence d’une situation de
référence), car ne permet pas d’isoler les effets de la politique des autres facteurs possible de
changement. Les conclusions auxquelles elle conduit sont très fragiles et ne peuvent être
étendues à d’autres situations similaires.

L’observation avant et après mise en œuvre, consiste à vérifier si la période de mise en œuvre
de la politique a coïncidé avec une modification de certains indicateurs. Elle permet une
description plus fine et quantifiée des effets.

Bien qu’elle ait les mêmes limites que l’observation après mise en œuvre, elle est meilleure
qu’à celle-ci du fait qu’elle exige d’avoir une situation de référence. Toutefois, la pertinence
des résultats peut être soutenue par l’usage de plusieurs indicateurs et la réalisation de
plusieurs recoupements.

16
L’évaluation par un groupe témoin non équivalent consiste à la comparaison du groupe cible
ayant bénéficié de l’action évaluée à un autre groupe témoin dont les caractéristiques ne sont
pas complètement semblables. Elle permet de mieux cerner l’impact ou les effets externes
d’une politique (sans garantir une relation causale) et de révéler les mécanismes des
comportements face à des politiques incitatives.

L’évaluation par un groupe témoin non équivalent permet d’identifier sans ambiguïté les
relations causales. La multiplication des groupes témoins permet de consolider les
conclusions. Cependant, cette méthode appelle des outils d’analyse statistique complexes qui
permet d’isoler les biais liés au non équivalence.

Le groupe témoin équivalent consiste à identifier sans équivoque, les relations de causalité
donc les effets propres d’une action évaluée. Elle est beaucoup utilisée dans le domaine
thérapeutique (l’usage des souris pour faire des examens cliniques).

Dans le domaine des sciences sociales, notamment concernant la mise en œuvre de politique,
programme ou projet de développement, cette méthode d’évaluation pose des problèmes
d’ordre éthique. C’est comme, si pour mesurer les effets de la mise en œuvre d’une politique
de lutte contre la tuberculose, il faudra prendre deux villages de la même province et appliquer
à l’un un programme national de lutte contre la tuberculose et maintenir le second sans
intervention pendant cinq ans afin de pouvoir mesurer les effets de l’action menée sur le
groupe ayant bénéficié de celle-ci.

Il est rappelé qu’au cœur de l’évaluation se retrouve la mesure des effets de l’action évaluée
de manière objective pour s’assurer, si les effets obtenus après la mise en œuvre d’une action,
sont imputables à celles-ci. Il s’en suit donc l’évaluateur doit se poser comme questions :

- Comment peut-on identifier un ou les effets du projet/programme/politique ?

- Et dans quelle mesure l’effet identifié est attribuable au projet/programme/politique ?

C’est pourquoi, lors de l’évaluation, les évaluateurs auront à l’esprit de se demander :

- Ce qui serait passé si l’action évaluée n’avait pas été mise en œuvre ?

Il est enfin utile de rappeler que lors de la réalisation de l’évaluation, les résultats atteints non
prévus constituent des données importantes dont il faut tenir compte dans l’analyse. Ils
contribuent à la fonction d’amélioration continue de l’évaluation.

2.7.2 Méthodes de collecte de données


La collecte fiable des données est nécessaire pour le succès de la mise en œuvre de
l’évaluation. Les évaluateurs doivent mettre en place une bonne gestion des données
collectées pour garantir leur fiabilité et qu’elles puissent être utilisées comme informations.

Il est rappelé que les données constituent des faits ou des chiffres bruts qui n’ont pas encore
été traités ou analysés, tandis que l’information est une donnée analysée dans le but d’être
utilisé soit à titre de compte rendu ou à titre explicatif lors de l’exercice d’évaluation.

2.7.2.1 L’existence des données secondaires


Les données recueillies directement dans le cadre de l’action évaluée (projet/programme) sont
les données primaires. Les données secondaires ne sont pas collectées dans le cadre de
l’action évaluée mais répondent aux besoins en information.

17
Les données secondaires permettent de vérifier et d’approuver l’analyse et les données
primaires. Il est nécessaire de vérifier leur pertinence et leur fiabilité. A titre d’exemple, il peut
s’agir de :

- Les statistiques démographiques de l’Institut national de statistiques,

- Des cartes et des photos aériennes de la zone de l’étude, fournies par le ministère en
charge,

- Des informations sur la santé, la sécurité alimentaire et le niveau nutritionnel, par les
partenaires techniques et financiers,

- Les taux de fréquentation et de réussite scolaires du ministère en charge de l’éducation


primaire et secondaire.

2.7.2.2 Un équilibre entre les données quantitatives et les données qualitatives


Les données quantitatives s’appuient sur des nombres pour mesurer et expliquer. A titre
illustratif : montant dépensé, pourcentages, proportions, moyenne, etc. Les méthodes
quantitatives appellent souvent des logiques structurées à travers des données précises
pouvant être analysées du point de vue statistique et reproduites à des fins de comparaison.
Exemples :

- 1459 femmes enceintes ont bénéficié de la mesure de la césarienne gratuite,

- 43% de la superficie emblavable ont été embravées

Les données qualitatives s’appuient sur des mots pour mesurer et expliquer et utilisent une
logique semi structurée (rapports d’observation, perceptions, jugements de valeur, couleur,
etc.). Elles sont très souvent participatives et expriment mieux la réalité. Exemple :

- Selon les membres du comité de développement du village, la variation climatique ne


permet plus d’avoir des récoltes comme les trois dernières années,

- Lors des discussions, les villageois ont reconnu avoir reçu les moustiquaires
distribuées mais ne l’utilisent plus pour diverses raisons,

Les données quantitatives sont souvent considérées comme plus objectives et moins biaisées
que les données qualitatives. Il est nécessaire d’assurer un équilibre entre les deux types de
données en adoptant une approche mixte qui exploite les avantages des deux approches : les
données quantitatives mesurant ce qui est arrivé et les données qualitatives examinant
comment et pourquoi c’est arrivé.

2.7.2.3 Une triangularisation des sources de données


La triangulation consiste à utiliser différentes sources et/ou méthodes pour collecter des
données. Elle permet de croiser les données et de réduire les biais afin de mieux garantir la
validité, la fiabilité et l’exhaustivité des données. Elle accroît la crédibilité si une information
résultante est mise en doute. La triangulation peut inclure une combinaison de sources
primaires et secondaires, des méthodes quantitatives et qualitatives, ou des techniques
participatives et non participatives.

18
Figure 8 : Exemple de triangularisation de données

Ce que les
responsables
de projet
disent avoir
fait

Au sujet de
la gratuité
de la
césarienne
Ce que les
Ce que donne
bénéficiaires
l'examination
disent avoir
des données
constatés

2.7.2.4 Les critères d’échantillonnage


Un échantillon est un sous-ensemble d’une population entière, sélectionné pour être étudié et
tirer des conclusions sur la population dans son ensemble. L’échantillonnage est utilisé pour
économiser du temps et de l’argent en collectant des données à partir d’un sous-groupe pour
en tirer des généralisations sur l’ensemble de la population.

Le processus d’échantillonnage peut comprendre les étapes suivantes10 :

i- Définir les questions d’évaluation (spécifiques) que vous allez mesurer – cela
permettra de déterminer quelle méthodologie sera utilisée pour traiter les questions
sélectionnées. Par exemple, dans le cadre d’une enquête sur les connaissances
en matière d’assainissement, les attitudes et les pratiques/comportements
pourraient être utilisés pour évaluer en quoi les comportements ont été modifiés
par les activités de sensibilisation à l’assainissement.

ii- Déterminer la méthode d’échantillonnage appropriée – à moins que la collecte de


données primaires ne comprenne la population totale étudiée, on pourra utiliser un
des deux grands types d’échantillons, selon le degré d’exactitude et de précision
requis :

a. Échantillons aléatoires (probabilité) : Ils sont déterminés de manière


quantitative et permettent, sur la base de statistiques, de réaliser des
généralisations plus précises sur l’ensemble de la population.

b. Échantillons par choix raisonné (non aléatoire) : Ils sont composés de manière
qualitative et ne font pas appel aux statistiques ; ils comprennent généralement
des échantillons ciblés, plus petits, de la population, mais sont insuffisamment

10
Inspiré de Monitoring and evaluation guide, IFRC, 2012, p.47

19
fiables d’un point de vue statistique pour permettre des généralisations sur
l’ensemble de la population. Les échantillons aléatoires sont plus complexes,
plus coûteux, exigent un travail plus considérable que les échantillons
déterminés par choix raisonné, et ne sont pas nécessaires pour les méthodes
qualitatives comme les groupes de discussion. Cependant, les échantillons
aléatoires sont souvent prévus dans les grands projets/programmes, car ils
sont plus précis et peuvent limiter les biais au minimum. Comme cela est
indiqué plus haut, il peut être préférable d’utiliser une méthode mixte,
combinant les deux méthodes d’échantillonnage pour la collecte de données
quantitatives et qualitatives.

Outre ces deux grandes méthodes d’échantillonnage, il y a une variété de


modèles d’échantillonnage, comme l’échantillonnage aléatoire simple,
l’échantillonnage aléatoire stratifié, l’échantillonnage en grappes,
l’échantillonnage à plusieurs grades, l’échantillonnage de commodité,
l’échantillonnage déterminé par choix raisonné, et l’échantillonnage en fonction
des répondants. Nous ne pouvons pas décrire en détail ici les différentes
formes d’échantillonnage, mais il est important de comprendre que le choix de
la forme de l’échantillon influe sur la taille de l’échantillon global.

En résumé, certaines formes d’échantillonnage sont choisies plutôt que


d’autres parce qu’elles fournissent l’échantillon le mieux adapté, du point de
vue de la taille et de la composition, à ce qui est étudié.

c. Définir le cadre de l’échantillon – une liste de tous les membres de la population


à partir de laquelle un échantillon doit être constitué (p. ex., les communautés
ou catégories de personnes – femmes, enfants, réfugiés, etc.).

d. Déterminer la taille de l’échantillon – la taille de l’échantillon est calculée en


utilisant des équations spécifiques au type d’enquête (descriptive/unique ou
comparative/enquête initiale-finale ; toutes deux sont décrites ci-après) et au
type d’indicateur utilisé comme base pour le calcul (moyenne/nombre entier ou
proportion/pourcentage).

2.7.2.5 Les enquêtes


Les enquêtes permettent de collecter les données. Elles peuvent se faire en personne, par
courrier, par téléphone, ou en ligne. Elles utilisent les techniques de l’entretien (questions
auxquelles les gens répondent) ou de mesure (déterminer la tonne de coton cultivé), ou une
combinaison de ces deux techniques.

Suivant la manière dont l’enquête est réalisée, on distingue : i) les enquêtes semi-structurées
(utilisent les questions ouvertes : par exemple, Que pensez-vous de la décision du
gouvernement de rendre gratuite l’école ?) qui favorisent une grande flexibilité dans les
réponses mais exigent que l’interviewer aient les compétences pour conduire la discussion ;
ii) les enquêtes structurées (utilisent des questions fermées : par exemple, Avez-vous
bénéficié des activités du projet ?) qui envoient vers des réponses prédéfinies (oui, non, vrai,
faux, ou choix multiples). Si elles peuvent être efficaces pour l’analyse statistique, il faut attirer
l’attention sur le fait qu’elles doivent être conçues pour ne pas prêter à confusion et être
comprises aisément.

20
Suivant le moment et la fonction de l’enquête, elle peut être : i) descriptive : en décrivant les
attitudes, les opinions, dans le but d’obtenir des données représentatives sur une population
à un instant donnée ; ii) comparative : en comparant les résultats entre deux groupes (au
même moment) ou la même population (en deux instants distincts).

L’échantillon à choisir et les outils de collecte de données sont fonctions de la méthode utilisée.

2.7.2.6 Les méthodes/outils spécifiques de collecte de données


La matrice d’évaluation résume les méthodes et outils de collecte de données, mais ceux-ci
doivent encore être préparés et prêts à l’emploi avant d’aller sur le terrain. Parfois, il faudra
définir de nouvelles méthodes/nouveaux outils, mais, le plus souvent, les méthodes/outils
existants pourront être adaptés.

Quelques considérations pratiques supplémentaires pourront être prises en compte dans la


préparation de la collecte de données11 :
- Élaborer des lignes directrices relatives à la collecte de données. Cela permet de
garantir l’harmonisation, la cohérence et la fiabilité tout au long du processus de
collecte de données, quand celui-ci est mené par plusieurs personnes. On peut
s’assurer que toutes les données nécessaires pour chaque indicateur ont été obtenues
par le biais d’au moins une source de données.

- Tester à l’avance les outils de collecte de données. Cela permet de détecter les
questions ou les techniques posant problème, de vérifier le temps nécessaire pour la
collecte, de recenser des questions éthiques éventuelles et de renforcer les
compétences des personnes chargées de la collecte des données.

- Effectuer une traduction et une traduction inverse des outils de collecte des données.
Cela permet de garantir que les outils sont corrects du point de vue linguistique,
adaptés à la réalité culturelle et satisfaisants.

- Former les personnes chargées de la collecte des données. Cela inclut de présenter
le système de collecte de données ; les techniques, les outils et l’éthique de la collecte
des données ; les compétences en communication interpersonnelle adaptées à la
culture cible ; et un exemple concret de collecte de données.

- Répondre aux questions d’ordre éthique. Il s’agit de détecter les préoccupations de la


population cible et d’y répondre. Il faut s’assurer que les autorités appropriées ont
délivré les permissions et autorisations nécessaires, que les coutumes et les habitudes
vestimentaires locales sont respectées, et que la confidentialité et la participation
volontaires sont garanties.

2.8 Fiches techniques12


Suivant la typologie des évaluations exposée ci-dessus, il est proposé dans cette partie des
fiches techniques pour réaliser différents types d’évaluation.

11
Inspiré de Monitoring and evaluation guide, IFRC, 2012, p.47
12
Les fiches de cette partie sont inspirées de Guide national d’évaluation du Bénin, 2016, Ministère du plan et
du développement

21
2.8.1 Fiches techniques des évaluations ex ante

Tableau 6 : Evaluation ex ante des intentions

Evaluation ex ante des intentions (analyse stratégique, analyse logique...)

Définition/objectif: Elle apprécie avant l'intervention la pertinence et la cohérence de cette dernière.

Modèle d'évaluation : Questions évaluatives : Questions


sur les intentions.
- Modèle causal synthèse: Il permet d'établir un lien
entre la modélisation de la problématique et l'intervention NB: adaptation des questions au
dans une logique de cause à effet. contexte d'avant l'intervention.
- Modèle logique.

Méthodes de collecte de données : Sources primaires


(entrevue, sondage, etc.) ou secondaires.

Méthodes d'analyse de données : Analyse quantitative et


qualitative

Éléments de coûts:
 salaires et avantages de l'unité d'évaluation de l'organe
responsable de l'exécution de l'intervention;
 prise en charge des membres de l'instance
d'évaluation;
 ateliers;
 Honoraires des consultants (équipe d'évaluation);
 Enquête de terrain;
 voyages;
 communications;
 impression et reproduction (divers documents et
rapport d'évaluation);
 fournitures et équipements;
 autres.

Tableau 7 : Evaluation ex ante de l'implantation de l'intervention

Evaluation ex ante d'implantation

Définition/objectif: l'évaluation ex ante d'implantation analyse les caractéristiques de l'intervention


avant sa mise en œuvre notamment les relations logiques entre celle-ci, ses composantes, son
contexte et la production des effets et impacts.

Modèle d'évaluation : étude de cas, étude comparative et


expérimentation.
- Étude comparative: nombre élevé d'unités d'analyse; Questions évaluatives : questions
- Expérimentation: test de l'effet d'une variable sur sur l'implantation.
plusieurs autres;
NB: adaptation des questions au
- Étude de cas: couramment utilisée, elle appréhende
contexte d'avant l'intervention.
les relations complexes entre l'intervention, les acteurs,
le contexte et la variabilité de son implantation dans les
milieux (Approche systémique).

22
Evaluation ex ante d'implantation

Méthodes de collecte de données : Sources primaires


(entrevue, sondage, etc.) ou secondaires.

Méthodes d'analyse de données : Analyse quantitative et


qualitative

Éléments de coûts:
 salaires et avantages de l'unité d'évaluation de l'organe
responsable de l'exécution de l'intervention;
 prise en charge des membres de l'instance
d'évaluation;
 ateliers;
 Honoraires des consultants (équipe d'évaluation);
 Enquête de terrain;
 voyages;
 communications;
 impression et reproduction (divers documents et
rapport d'évaluation);
 fournitures et équipements;
 autres.

Tableau 8 : Analyse coût-bénéfice

Analyse coût-bénéfice

Définition/objectif: L'analyse coût-bénéfice est une forme d''évaluation économique d'une


intervention qui calcule ex ante des coûts et des bénéfices espérés. Elle permet aussi de comparer
plusieurs interventions publiques ou des options de la même intervention. Cette analyse permet
d'appréhender la rentabilité économique de l'intervention et de décider de si elle sera mise en œuvre
ou non.

Modèle d'évaluation :
Analyse coût-bénéfice: tous les coûts et les bénéfices sont
exprimés en unités monétaires.
Bénéfice social net= bénéfices actualisés - coûts
actualisés. Questions évaluatives : questions
sur les rendements des ressources.
Méthodes de collecte de données : Sources primaires
(entrevue, sondage, etc.) et secondaires. De manière spécifique:
 Quels sont les effets/impacts
Méthodes d'analyse de données : Analyse quantitative. positifs espérés (bénéfices
sociaux) de l'intervention
Éléments de coûts: exprimés en unités monétaires ;
 salaires et avantages de l'unité d'évaluation de l'organe  Quels sont les effets/impacts
responsable de l'exécution de l'intervention; négatifs espérés (coûts sociaux)
 prise en charge des membres de l'instance de l'intervention exprimés en
d'évaluation; unités monétaires.
 ateliers;
 Honoraires des consultants (équipe d'évaluation);
 Enquête de terrain;
 voyages;
 communications;

23
Analyse coût-bénéfice
 impression et reproduction (divers documents et
rapport d'évaluation);
 fournitures et équipements;
 autres.

Tableau 9 : Evaluation d'impact prospective

Évaluation d'impact prospective

Définition/objectif: Elle consiste à faire une enquête de référence pour disposer des informations sur
les groupes de traitement et de comparaison avant la mise en œuvre de l'intervention. Elle vise à
définir les deux groupes, vérifier leur similitude, évaluer l’efficacité du ciblage et établir si les
bénéficiaires y compris les groupes les plus défavorisés visés seraient effectivement touchés.
Ce type d'évaluation contribue à mieux affiner les objectifs de l'intervention. Ce faisant, c'est une
évaluation dont l'objectif est d'avoir une meilleure estimation du contrefactuel13

Modèle d'évaluation :
Modèle expérimental et quasi-expérimental (mesure avant
l'intervention).

Méthodes de collecte de données : Sources primaires


(entrevue, sondage, etc.) et secondaires. Questions évaluatives :
 Quelle est la différence entre le
Méthodes d'analyse de données : Analyse quantitative. groupe de traitement et de
comparaison ou de contrôle?
Éléments de coûts:  Dans quelle mesure les clientèle-
 salaires et avantages de l'unité d'évaluation de l'organe cible visée seraient effectivement
responsable de l'exécution de l'intervention; touchée par l'intervention?
 prise en charge des membres de l'instance  Dans quelle mesure les groupes
d'évaluation; les plus défavorisés prévus être
 ateliers; touchés par l'intervention le
 Honoraires des consultants (équipe d'évaluation); seraient effectivement?
 Quel est le véritable
 Enquête de terrain;
contrefactuel de l'intervention?
 voyages;
 communications;
 impression et reproduction (divers documents et
rapport d'évaluation);
 fournitures et équipements;
 autres.

Tableau 10 : Evaluation des effets et impacts probables d'une intervention

Evaluation des effets et impacts probables d'une intervention

Définition/objectif: Elle consiste à estimer les effets et impacts probables d'une intervention sur la
clientèle cible visée y compris sur les groupes les plus défavorisés concernés par ladite intervention.

13
Gertler et al, 2011, p. 13.

24
Evaluation des effets et impacts probables d'une intervention

Modèle d'évaluation :
- Évaluation comportementale marginale des réformes
politiques;
- Analyse d’équilibre partiel : modèle multi-marchés,
estimation de forme réduite;
- Analyse d’équilibre général: Matrices de comptabilité
sociale (MCS), Modèles d’équilibre général calculable
(EGC);
- etc.

Méthodes de collecte de données : Sources primaires


(entrevue, sondage, etc.) et secondaires.
Questions évaluatives : Questions
sur les impacts.
Méthodes d'analyse de données : Analyse quantitative.

Éléments de coûts: NB: adaptation des questions au


 salaires et avantages de l'unité d'évaluation de l'organe contexte d'avant l'intervention.
responsable de l'exécution de l'intervention;
 prise en charge des membres de l'instance
d'évaluation;
 ateliers;
 Honoraires des consultants (équipe d'évaluation);
 Enquête de terrain;
 voyages;
 communications;
 impression et reproduction (divers documents et
rapport d'évaluation);
 fournitures et équipements;
 autres.

2.8.2 Fiches techniques des évaluations formatives ou à mi-parcours

Tableau 11 : Evaluation d'implantation d'une intervention

Evaluation d'implantation

Définition/objectif: l'évaluation d'implantation analyse les caractéristiques de l'intervention


notamment les relations entre celle-ci, ses composantes, son contexte et la production des effets.

Modèle d'évaluation : étude de cas, étude comparative et


expérimentation.
- Étude comparative: nombre élevé d'unités d'analyse;
Questions évaluatives : questions
- Expérimentation: test de l'effet d'une variable sur
sur l'implantation.
plusieurs autres;
- Étude de cas: couramment utilisée, elle appréhende
les relations complexes entre l'intervention, les acteurs,
le contexte et la variabilité de son implantation dans les
milieux (Approche systémique).

25
Evaluation d'implantation

Méthodes de collecte de données : Sources primaires


(entrevue, sondage, etc.) ou secondaires.

Méthodes d'analyse de données : Analyse quantitative et


qualitative

Éléments de coûts:
 salaires et avantages de l'unité d'évaluation de l'organe
responsable de l'exécution de l'intervention;
 prise en charge des membres de l'instance
d'évaluation;
 ateliers;
 Honoraires des consultants (équipe d'évaluation);
 Enquête de terrain;
 voyages;
 communications;
 impression et reproduction (divers documents et
rapport d'évaluation);
 fournitures et équipements;
 autres.

Tableau 12 : Evaluation de la production d'une intervention

Evaluation de la production

Définition/objectif: Elle analyse les relations entre le volume et la qualité des services produits avec
les ressources utilisées.

Modèle d'évaluation : Plusieurs modèles mais retenons que


l'étude de cas peut permettre de répondre aux questions
Questions évaluatives : Quelques
d'évaluation.
questions particulières.
Méthodes de collecte de données : Sources primaires  Quelle est la productivité des
(entrevue, sondage, etc.) ou secondaires. ressources?
 Quelle est l'accessibilité aux
services (temporelle,
Méthodes d'analyse de données : Analyse quantitative et géographique, financière,
qualitative culturelle, informationnelle)?
 Quelle est l'intensité des
Eléments de coûts: services?
 salaires et avantages de l'unité d'évaluation de l'organe  Quelle est la qualité des
responsable de l'exécution de l'intervention; services?
 prise en charge des membres de l'instance  Comment les caractéristiques
d'évaluation; des processus de production
 ateliers; influencent-elles la qualité
 Honoraires des consultants (équipe d'évaluation); globale et la productivité?
 Enquête de terrain;  Comment les autres fonctions
organisationnelles influencent-
 voyages;
elles les caractéristiques des
 communications;
processus de production, la
 impression et reproduction (divers documents et productivité et la qualité globale
rapport d'évaluation);
du processus de production?
 fournitures et équipements;
 autres.

26
Tableau 13 : Evaluation des effets d'une intervention

Evaluation d'effets

Définition/objectif: Elle consiste à mesurer les changements attribuables à court terme à une
intervention non encore achevée.

Modèle d'évaluation :
- modèles expérimentaux;
- modèles quasi expérimentaux;
- modèles implicites;
- modèle de double différence;
- modèle de régression par discontinuité;
- modèle faisant recours à l'utilisation de variable
instrumentale;
- modèle de causalité ou de régression.

Méthodes de collecte de données : Sources primaires


(entrevue, sondage, etc.) ou secondaires.

Méthodes d'analyse de données : Analyse quantitative, fonction


du modèle d'évaluation choisi. Questions évaluatives :
questions sur les effets.
Éléments de coûts:
 salaires et avantages de l'unité d'évaluation de l'organe
responsable de l'exécution de l'intervention;
 prise en charge des membres de l'instance d'évaluation;
 ateliers;
 Honoraires des consultants (équipe d'évaluation);
 Enquête de terrain;
 voyages;
 communications;
 impression et reproduction (divers documents et rapport
d'évaluation);
 fournitures et équipements;
 autres.

Tableau 14 : Evaluation économique

Evaluation économique

Définition/objectif: l'évaluation économique étudie l'efficience de l'intervention via l'analyse des


relations entre les ressources utilisées et les effets obtenus.

Modèle d'évaluation : analyse coût-avantage ou coût-bénéfice,


analyse coût-efficacité et analyse coût-utilité.
Questions évaluatives :
Analyse coût-bénéfice: tous les coûts et les bénéfices sont questions sur les rendements
exprimés en unités monétaires. des ressources.
Bénéfice social net= bénéfices actualisés - coûts actualisés.
Au niveau des analyses coût-efficacité et coût-utilité, les coûts
sont exprimés en unités monétaires et les effets en unités réelles
(unités de mesure des indicateurs).

27
Evaluation économique

Méthodes de collecte de données : Sources primaires


(entrevue, sondage, etc.) ou secondaires.

Méthodes d'analyse de données : Analyse quantitative.

Éléments de coûts:
 salaires et avantages de l'unité d'évaluation de l'organe
responsable de l'exécution de l'intervention;
 prise en charge des membres de l'instance d'évaluation;
 ateliers;
 Honoraires des consultants (équipe d'évaluation);
 Enquête de terrain;
 voyages;
 communications;
 impression et reproduction (divers documents et rapport
d'évaluation);
 fournitures et équipements;
 autres.

2.8.3 Fiches techniques des évaluations ex post

Tableau 15 : Evaluation des effets et impacts

Évaluation d'effets et d'impacts

Définition/objectif: Elle consiste à mesurer les changements attribuables à moyen ou long terne à
une intervention déjà achevée.

Modèle d'évaluation :
- modèles expérimentaux;
- modèles quasi expérimentaux;
- modèles implicites;
- modèle de double différence;
- modèle de régression par discontinuité;
- modèle faisant recours à l'utilisation de variable
instrumentale;
- modèle de causalité ou de régression.
Questions évaluatives :
Méthodes de collecte de données : Sources primaires
questions sur les effets.
(entrevue, sondage, etc.) ou secondaires.

Méthodes d'analyse de données : Analyse quantitative, fonction


du modèle d'évaluation choisi.

Éléments de coûts:
 salaires et avantages de l'unité d'évaluation de l'organe
responsable de l'exécution de l'intervention;
 prise en charge des membres de l'instance d'évaluation;
 ateliers;
 Honoraires des consultants (équipe d'évaluation);
 Enquête de terrain;

28
Évaluation d'effets et d'impacts
 voyages;
 communications;
 impression et reproduction (divers documents et rapport
d'évaluation);
 fournitures et équipements;
 autres.

Tableau 16 : Analyse coût-bénéfice d'une intervention achevée

Analyse coût-bénéfice

Définition/objectif: L'analyse coût-bénéfice est une forme d''évaluation économique d'une


intervention qui calcule ex post des coûts et des bénéfices réels. Cette analyse permet d'appréhender
la rentabilité économique réelle de l'intervention et de tirer les leçons appropriées pour les
interventions futures.

Modèle d'évaluation :
Analyse coût-bénéfice: tous les coûts et les bénéfices sont
exprimés en unités monétaires.
Bénéfice social net= bénéfices actualisés - coûts actualisés.
Questions évaluatives :
Méthodes de collecte de données : Sources primaires questions sur les rendements
(entrevue, sondage, etc.) et secondaires. des ressources.
De manière spécifique:
Méthodes d'analyse de données : Analyse quantitative.
 Quels sont les
Éléments de coûts: effets/impacts positifs
 salaires et avantages de l'unité d'évaluation de l'organe (bénéfices sociaux) de
responsable de l'exécution de l'intervention; l'intervention exprimés en
unités monétaires ;
 prise en charge des membres de l'instance d'évaluation;
 Quels sont les
 ateliers;
effets/impacts négatifs
 Honoraires des consultants (équipe d'évaluation);
(coûts sociaux) de
 Enquête de terrain; l'intervention exprimés en
 voyages; unités monétaires.
 communications;
 impression et reproduction (divers documents et rapport
d'évaluation);
 fournitures et équipements;
 autres.

2.8.4 L’équipe d’évaluation


La mise en œuvre de l’évaluation exige une approche multidisciplinaire, c’est pour cela qu’il
est souhaité d’avoir une équipe multidisciplinaire. Il est suggéré qu’elle comprenne au moins
un spécialiste de l’évaluation assisté de un ou plusieurs spécialistes d’autres domaines
notamment de la thématique en lien directe avec l’action évaluée.

Il est possible, au regard de la portée du type d’évaluation et de la méthodologie convoquée,


de faire recours à un spécialiste des statistiques ou un sociologue.

29
De manière générale, les compétences ci-après sont attendues des membres de l’équipe de
l’évaluation :

- Capacité d’initiative et d’innovation

- Indépendance

- Connaissance du domaine

- Compétences analytiques

- Relations interpersonnelles

- Compétences dans la gestion du projet

- Qualités de synthèse et de rédaction

Enfin, il est souhaité que lors de la composition de l’équipe d’évaluation, une attention soit
portée à la notion du genre de manière à y trouver tous les genres.

2.9 Rapport d’évaluation : structuration type et contenu

Le rapport d'évaluation récapitule les travaux de l’équipe de l’évaluation. Il est un document


à travers lequel l’équipe d'évaluation présente de façon succincte tous les aspects de
l’évaluation. Au regard de son importance et des acteurs à qui il est destiné, il est suggéré
qu’il comporte les éléments ci-après ainsi qu’il suit :

1. un résumé exécutif ;

2. une introduction ;

3. un descriptif de l'intervention évaluée ;

4. une description de la méthodologie de l’évaluation ;

5. les résultats de l’évaluation (rapport de diagnostic) ;

6. une discussion analytique ;

7. les recommandations (Proposition de scénario de transformation) ;

8. les conclusions ;

9. les annexes.
Tableau 17 : Structuration d'un rapport d'évaluation

N° Rubriques Contenu Liste de contrôle


1 Résumé exécutif Aperçu des éléments essentiels de l'évaluation  Qu’est ce qui est évalué ?
et synthèse des principales conclusions et  pourquoi l’évaluation a-t-
recommandations (3-4 pages au maximum). elle été réalisée ?
 Quelles en sont les
principales conclusions et
recommandations ?
 À qui s’adresse le
rapport ?

30
 Quelles sont les limites de
l’évaluation ?
2 Introduction  Présentation du projet d’évaluation et du
contexte dans lequel l’évaluation a eu lieu;
 Description sommaire du contexte et du
cadre géographique, socio-économique,
politique, environnemental et historique;
 Annonce des différents chapitres que
contient le rapport.
3 Description de Description claire de l'objet évalué en mettant  Quelles sont les origines
l'intervention en exergue le contexte de sa mise en œuvre, de l'objet évalué ?
évaluée sa logique d’intervention et sa nature  Quelles sont les objectifs
d'intervention. l'objet évalué ?
- Lorsqu'il s'agit d'une politique publique, la  Comment l'objet évalué a-
section doit aborder les orientations de la t-il été mis en œuvre ?
politique, les plans stratégiques, les projets  Quels sont les plans, les
et programmes qui ont permis son projets et les programmes
opérationnalisation; qui ont permis
- Dans le cas d'un projet ou programme, se d’opérationnaliser l'objet
focaliser sur les composantes de la théorie évalué ?
du changement sans oublier la couverture  Quels en sont les
de l'intervention et les principales bénéficiaires ou les
hypothèses; cibles ?
- souligner si l'intervention est sensible au  Quels sont les acteurs
genre, à l'équité, aux droits humains, à impliqués dans la mise en
l'environnement etc. œuvre de l'objet évalué ?
 Combien a coûté la mise
en œuvre de l'objet
évalué?
NB: les aspects transversaux
tels que l'équité, le genre et les
droits humains pris en charge
par l'intervention évaluée
devront être également
abordés.
4 Description de  présentation des objectifs de l’évaluation,  Pourquoi réaliser
l'évaluation du champ de l’évaluation ainsi que la l’évaluation et pour quelle
méthodologie utilisée pour atteindre les finalité ?
résultats;  comment les résultats
 description de(s) modèle (s) d'évaluation, sont obtenus ?
des méthodes et outils de collecte des  quel (s) est (sont) le (s)
données, l'échantillonnage utilisée et les modèle (s) d'évaluation?
sources de données;  quelles sont les méthodes
 présentation de la manière dont la et outils de collecte de
méthodologie intègre les préoccupations données (enquête,
des groupes les plus défavorisés pour tenir entretien, focus-group,
compte du genre, de l'équité, des droits etc.) ?
humains etc.  Quelles sont les
 Présentation des limites de la démarche caractéristiques de
méthodologique, les problèmes l’échantillon, le plan
rencontrés, et les approches de solution. d’échantillonnage ?
NB: Inclure les détails pertinents sur la  Comment les données ont
méthodologie afin de donner la possibilité à été analysées ?
d'autres de s'en inspirer.  Quelles sont les forces et
les faiblesses des
méthodes choisies ?

31
5 Résultats de  Présentation des résultats clés de
l'évaluation l'évaluation par critère et par question
(rapport évaluative ainsi que les principales
diagnostic) conclusions révélées par les données;
 Présentation des réponses de manière
claire, concise et basée sur des preuves et
faits vérifiables;
 Présentation des résultats clés de
l'évaluation sur les groupes les plus
défavorisés;
 Justification des questions évaluatives
dont les réponses n’auraient pas été
apportées.
NB: recourir à des tableaux, des exemples, des
citations, des illustrations, et graphiques pour
souligner les résultats importants.
6 Discussion  Argumentation en termes d'explication et  y-a-t-il d'autres éléments
analytique d'interprétation des résultats obtenus; qui expliqueraient les
 Établissement du jugement de l'équipe résultats obtenus ?
d'évaluation;  les résultats sont-ils
 Présentation des enseignements de généralisables ?
l’évaluation ainsi que des leçons apprises.  les résultats sont-ils
Il s’agit d’identifier les succès qui devraient fiables?
être consolidés ou étendus et les échecs  quelles sont les forces et
ou mauvaises pratiques qu’il est les faiblesses de la mise
nécessaire de changer. en œuvre de l'intervention
Mettre un accent sur les groupes les plus ?
défavorisés.  les résultats sont-ils liés à
d’autres facteurs
exogènes ?
 y-a-t-il des résultats
inattendus?
7 Recommandation  Présentation de façon succincte les  quelles sont les
s principales recommandations réalistes et recommandations
applicables dans le contexte de concernant l'intervention ?
l'intervention évaluée;  y a-t-il des prévisions et ou
 Déclinaison claire des recommandations des hypothèses ?
avec une hiérarchisation nette des actions  y a-t-il des
prioritaires et des organisations recommandations quant
responsables. aux évaluations futures?
 Présentation des recommandations en
faveur des groupes les plus défavorisés s'il
y a lieu.
8 Conclusions  Rappel des objectifs de l'évaluation;  quelles sont les
 Rappel des principaux résultats de principales conclusions de
manière concise. l'évaluation?
 Rappel des principaux recommandations  quelles sont les
NB: la conclusion ne doit contenir aucune principales
nouvelle information et doit être en lien avec les recommandations ?
sections précédentes du rapport.
9 Annexes  les termes de référence de l’évaluation ;
 la liste des personnes interviewées et les
sites visités ;
 les détails sur la méthodologie y compris
ses limites ;
 les outils de collecte de données;

32
 la liste des membres de l'instance
d'évaluation;
 la liste des participants à toutes les
séances d'examen et de validation du
rapport;
 les données relatives aux évaluateurs et la
justification de la composition de l’équipe.
Source: UNICEF (2009)14, FIDA (2009)15, ACDI (2002)16; MPD (2016)17.

2.10 Valorisation des résultats de l’évaluation


La valorisation des résultats de l’évaluation est un élément très important pour la crédibilité de
la fonction d’évaluation d’une part et notamment pour qu’elle remplisse sa finalité
d’amélioration continue d’autre part. Dès lors, les mécanismes de diffusion des résultats
doivent être discutés dès la phase de conception du projet d’évaluation. Il est important
d’assurer une large appropriation des résultats et aussi de faciliter l’enracinement de la culture
d’évaluation.

Les résultats de l’évaluation doivent être communiqués auprès des parties concernées par la
mission de l’évaluation. Il est rappelé que la confrontation des résultats est un exercice
important à ne pas omettre. Pour leur valorisation, les résultats peuvent être valorisés de
plusieurs manières : i) des séances de travail avec les parties concernées, ii) des conférences
ou publications dans la presse, iii) des missions d’informations auprès des institutions ou
autorités gouvernementales.

Il existe plusieurs catégories d’acteurs qui peuvent être ciblés pour la valorisation des résultats.
Il s’agit de :

- Les acteurs politiques : le gouvernement, les cabinets ministériels, l’Assemblée nationale,


les institutions de la république pouvant influencer dans la chaine décisionnelle,

- Les Techniques et administratifs : gestionnaires, responsables de l’action évaluée, les


directions centrales et techniques de(s) ministère(s) concerné(s), les partenaires
techniques et financiers,

- Les scientifiques : universitaires et experts du domaine,

- Les populations : notamment la population cible de l’action évaluée, les acteurs de la


société civile, les acteurs de la presse (écrite et audiovisuelle),

- Autres : les réseaux sociaux : leader d’opinion ou web activiste.

14
UNICEF (2009) : FONDS DES NATIONS UNIES POUR L'ENFANCE (2009), Guide Normes de qualité du rapport
d’évaluation, Bureau régional de l'Unicef pour l'Afrique de l'Ouest et du Centre,
30 p.
15
FIDA (2009) : FONDS INTERNATIONAL DE DEVELOPPEMENT AGRICOLE (2009). Manuel de
l'Évaluation: Méthodologie et processus, Bureau de l'Évaluation, Rome, Italie, 103 p.
16
ACDI (2002) : AGENCE CANADIENNE DE DEVELOPPEMENT INTERNATIONAL (2002), Comment faire une
évaluation: Le rapport d'évaluation, Gatineau, Québec, 9 p.
17
MPD (2016) : Ministère du plan et du développement (2016), Guide national d’évaluation

33
Suivant chaque catégorie de cible, le support de communication doit être adapté afin de
rendre la communication claire et compréhensible.

2.11 L’évaluation, une théorie de changement et


d’organisation apprenante
Le projet est aussi considéré comme le chemin entre un futur désiré et un besoin (situation
non souhaitable par rapport auquel le projet est mis en place). Pour se réaliser, le projet est
construit autour d’une logique d’actions à partir des postulats sur lesquels fonde l’intervention
portée par le projet. Car il s’agit de produire des changements avec des effets mesurables.

Le modèle logique codifié et utilisé par lequel toute intervention projet ou action publique est
souvent représenté est le cadre logique (les acteurs sont unanimes sur celui-ci qui n’est pas
le seul). Il porte le descriptif clair et détaillé de la relation entre les ressources, les composantes
de l’intervention, les activités, les résultats, la clientèle cible et les risques (internes ou
externes) auxquels l’intervention est exposée. Un exemple est à l’annexe 1.

Dans la pratique, très souvent, l’équipe d’évaluation pourra se retrouver en situation de non
disponibilité de la planification initiale du projet. De manière à être obligé de la reconstituer en
amont avant de pouvoir conduire la mission d’évaluation. Il est donc nécessaire pour les
évaluateurs de pouvoir lire ce modèle ou de le reconstituer.

Par ailleurs, une certaine opinion considère l’évaluation comme un contrôle administratif dans
le but de sanctionner. Il est nécessaire de ne pas la présenter ainsi, elle ne l’est pas. Il faut
agir à dissuader les parties concernées qu’elle est un exercice porteur d’amélioration continue
dans la mise en œuvre de leur projet/programme.

L’évaluateur ou l’équipe d’évaluation doit inscrire l’évaluation dans sa fonction originelle de


mécanisme d’organisation apprenante et devront agir pour que les parties concernées tirent
effectivement leçon de la mission d’évaluation et mettent en œuvre le plan d’action qui devra
s’y découler pour réajuster au tant que ce peu leur intervention afin que les effets attendus
soient atteints. C’est à ce prix, que le développement y gagnera et la pauvreté reculera.

34
ANNEXE

35
Annexe 1 : Cadre logique

Raison d'être de l'intervention :

Cible à court terme:

Cibles de l'intervention Cible à moyen terme:

Cible à long terme:

Objectif 1:

Objectifs de l'intervention Objectif i:

Objectif n:

Ressources Composantes/Activités Extrants Effet à court terme Effet à moyen terme Impact

NATURE DE L'INTERVENTION
CLIENTÈLE-CIBLE

PÉRIODE DE MESURE DES


EFFETS/IMPACTS

FACTEURS
EXTERNES OU
HYPOTHÈSES

Source : Adapté du Guide national d’évaluation, Ministère du plan et du développement (2016)

I
Annexe 2 : Format du TDR18
N° Rubrique Contenu
1 Contexte et
justification  Brève présentation de l'intervention ou action à évaluer.
 Présentation claire et précise du contexte dans lequel intervient
l'évaluation.
 Présentation des raisons qui motivent l'évaluation. Souligner si
l'évaluation était déjà programmée ou non dès le lancement de
l'intervention;
 mentionner le moment de l'intervention où l'évaluation intervient (mi-
parcours, finale, ex post) et les raisons du choix du moment, ainsi que
son commanditaire.
2 Objectifs de
l'évaluation  exposer les raisons globale et spécifiques pour lesquelles l’évaluation est
effectuée. À cet égard, l'objectif principal est défini de même que les
objectifs spécifiques.
NB: indiquer déjà à ce niveau si l'équipe d'évaluation aura en charge une
partie ou la totalité de la dissémination des résultats.
3 Résultats
Les résultats attendus de l'évaluation sont identifiés en rapport avec les
attendus
objectifs définis.
NB: indiquer déjà à ce niveau si l'équipe d'évaluation aura en charge une
partie ou la totalité de la dissémination des résultats.
4 Portée de
La portée d'une évaluation définit son étendue et son ampleur à travers les
l'évaluation et
critères d'évaluation retenus et les questions évaluatives présentant un
questions
intérêt pour l'ensemble des parties prenantes.
évaluatives
La portée de l'évaluation est fonction du contexte et des contraintes en
présence.
 Critère 1: Questions
 Critère 2: Questions
 ..................
 Critère n: Questions
NB: le genre, les droits humains, l'équité, l'environnement etc. sont des
considérations importantes à prendre en compte.
5 Démarche 1er cas: Le consultant à recruter et/ou l'équipe interne à constituer proposera
méthodologique la démarche méthodologique nécessaire à la conduite de la mission.
de l'évaluation
2ème cas: Le consultant et/ou l'équipe interne devra suivre la démarche
globale de conduite de la mission déclinée en x étapes. À titre illustratif, ces
étapes peuvent regrouper le lancement de la mission après le
recrutement, l'élaboration du référentiel d'évaluation, l'examen du
référentiel d'évaluation par l'instance d'évaluation, l'élaboration des
outils de collecte de données, la collecte des données, le traitement et
l'analyse des données, la tenue par l'instance d'évaluation des séances
d'examen d'avancement des travaux et des produits livrés, l'examen
par l'instance du rapport préliminaire, la tenue de l'atelier de validation
du rapport.
NB: indiquer déjà à ce niveau si l'équipe d'évaluation aura en charge une
partie ou la totalité de la dissémination des résultats.
6 Principaux Il est indispensable de donner des précisions sur la nature et la forme des
livrables de la livrables attendus. À cet effet, les éléments ci-dessous peuvent être utilisés
mission dans les termes de référence.
 Rapport de démarrage ou cahier de charge : document retraçant la
méthodologie d’évaluation détaillée de la mission, le (s) modèles

18
Adapté du Guide national d’évaluation, Ministère du plan et du développement (2016)

II
N° Rubrique Contenu
d'évaluation, les outils d’évaluation, le plan de collecte et d’analyse des
données, un chronogramme prévisionnel mis à jour.
 Rapport d'étape ou rapport diagnostic : rapport qui indique le niveau
d'avancement des travaux avec les produits subséquents notamment
liés aux diagnostics ;
 Rapport provisoire constitué de l’intégralité du travail. Il fait l’objet d’un
examen par le commanditaire et l'instance d'évaluation.
 Rapport définitif: rapport qui prend en compte des amendements de
l'instance d'évaluation élargie à d'autres acteurs et des éventuelles
demandes de compléments, de modifications et de précisions du
commanditaire. Ce rapport final est assorti d’un résumé exécutif.

Il faut également mentionner dans cette partie le nombre d'exemplaires à


remettre (rapport provisoire, rapport définitif, base de données) ainsi que les
formats de remise de l'ensemble des produits et le canal de transmission.
7 Profil du Voire section 2.8.4
consultant (ou
membres de
l'équipe interne)
8 Gestion du  Pilotage: une instance d'évaluation pourra est constituée
processus et  Obligations de l'administration: l’administration a des obligations vis-
arrangements à-vis des évaluateurs (consultant ou équipe interne). Elle devra leur
institutionnels
faciliter l’accès à la documentation existante, aux structures, aux
personnes et aux informations dont ils auront besoin pour réaliser au
mieux toutes les prestations contenues dans leur mandat.
 Obligation du Consultant ou de l'équipe interne d'évaluation: il est
nécessaire de souligner les obligations des évaluateurs. Il doit être
mentionné que les évaluateurs s’engagent à accomplir la présente
mission conformément aux normes et standards d’évaluation. Les
données collectées dans le cadre de la présente évaluation ne seront
strictement utilisées que pour des besoins de la mission. Ces données
relèvent de la propriété exclusive du commanditaire. Les rapports
seront rédigés en langue française. Les évaluateurs déposeront x
(nombre à préciser selon le cas) exemplaires ainsi qu'une copie
numérique (mentionner les formats) de tous les produits de la mission
au commanditaire.

9 Durée de la La durée totale de l'expertise est estimée en x jours calendaires. Les


mission et
modalités de paiement des honoraires seront précisées dans le contrat des
modalités de
paiement consultants.

10 Chronogramme Dans les TdR, le chronogramme présente de façon indicative les étapes de
indicatif de la
la mission, les responsables et les échéances. Il revient au prestataire ou à
mission
l'équipe interne constituée d'établir un chronogramme comportant des
précisions relatives à la mise en œuvre des différentes étapes de l'exercice
ainsi que leurs échéances, en tenant compte de la durée de la mission et de
la date de son démarrage.

11 Budget Éléments de coûts:

III
N° Rubrique Contenu
 salaires et avantages de l'unité d'évaluation de l'organe responsable de
l'exécution de l'intervention;
 prise en charge des membres de l'instance d'évaluation;
 ateliers;
 Honoraires des consultants (équipe d'évaluation);
 Enquête de terrain;
 voyages;
 communications;
 impression et reproduction (divers documents et rapport d'évaluation);
 fournitures et équipements;
 autres.

IV
Annexe 3 : Format fiche de cadrage19
Fiche de cadrage
à produire par le ministère pilote de l’évaluation

Ministère pilote de l’évaluation :


Personne à contacter au sein du ministère :
Autre(s) ministère(s) concerné(s) :

Politique ou action publique à évaluer


1. Finalités, principaux objectifs de la politique ou action à évaluer :

2. Principales parties prenantes de l’action à évaluer (services de l’État, centraux et déconcentrés, opérateurs nationaux et
locaux, collectivités, organismes de sécurité sociale, etc., liste préfigurant la composition du futur comité d’évaluation) :

3. Principales données financières relatives à l’action à évaluer (ordres de grandeur) :

Attentes du ministère pilote de l’évaluation


4. Principaux enjeux d’évolution/transformation/réforme de l’action à évaluer :

5. Principales questions auxquelles devra répondre l’évaluation :

Globalement, cette évaluation visera à améliorer l’action publique en termes :


 d’utilité, de pertinence : ☐  d’efficience, de coûts : ☐
 d’efficacité, de service rendu : ☐  de cohérence, de gouvernance : ☐
6. Suites de l’évaluation visées (révision des objectifs de la politique, alimentation d’un projet de loi, réorganisation,
expérimentations…) et échéances :

7. Profil possible/envisagé de l’équipe d’évaluation (évaluateurs internes au ministère, inspection(s), personnalité qualifiée,
chercheur/universitaire, prestataire privé…) :

Principaux risques
8. Principaux risques liés au jeu des acteurs (soutiens/opposants), aux suites de l’évaluation, au calendrier, etc. :

9. Évolutions, projets parallèles ou travaux en cours ou prévus (réorganisation, projet de loi, études, consultations, assises…)
susceptibles d’avoir un impact sur l’action évaluée ou sur le déroulement des travaux d’évaluation :

19
Adapté du Secrétariat général pour la modernisation de l’action publique, (2015). EPP : principes, processus
et méthodes.

V
Annexe 4 : Plan synoptique du cahier de charge ou rapport de
démarrage20
Après la fiche de cadrage et la lettre de mission, le cahier des charges (souvent appelé note
de cadrage par les services d’inspections) est chronologiquement le troisième document
nécessaire à la bonne réalisation d’une EPP. Produit par la maîtrise d’œuvre, c’est à dire
l’équipe d’évaluateurs qui va réaliser concrètement l’évaluation, il traduit et reformule la
commande telle que la maîtrise d’œuvre la comprend et telle qu’elle pense pouvoir y répondre,
notamment au vu des ressources dont elle dispose (nombre et compétences des évaluateurs),
des contraintes méthodologiques (recueil des données, besoins en consultations, sondages,
benchmark…) et des délais fixés par la maîtrise d’ouvrage. Dans le cahier des charges, la
maîtrise d’œuvre va donc formaliser sa « feuille de route » pour atteindre les objectifs fixés à
l’évaluation.

Le cahier des charges reprend donc, en les développant et en les complétant, les éléments
de la fiche de cadrage (surtout dans la première partie dans le plan de cahier des charges
suggéré ci-dessous). Il peut les modifier et donc les remplacer sur certains points.

Le cahier des charges de l’évaluation comporte les éléments suivants et peut suivre le plan
indiqué ici.

- Partie 1 : Description de l’action (publique) à évaluer et cadrage de l’évaluation

1. Objectifs de l’action (publique) à évaluer

2. Publique cible (bénéficiaires) de l’action publique évaluée

3. Objectifs de l’évaluation

4. Périmètre retenu de l’évaluation (tout ou partie de l’action publique évaluée)

5. Eléments budgétaires et emplois (effectifs associés à l’action publique évaluée)

- Partie 2 : Questions auxquelles l’évaluation doit répondre (référentiel évaluatif)

1. Questions évaluatives

2. Matrice de l’évaluation

3. Partie 3 : Modalités opérationnelles de l’évaluation

4. Gouvernance de la mission de l’évaluation (comité de pilotage)

5. Approche méthodologique retenue

6. Calendrier prévisionnel

20
Adapté du Secrétariat général pour la modernisation de l’action publique, (2015). EPP : principes, processus
et méthodes.

VI
Annexe 5 : Liste indicatives de questions évaluatives21
CATEGORIES COMPOSANTES EXEMPLE DE QUESTIONS OBSERVATIONS
(Critères d'évaluation)
I- Questions sur 1- Raison d’être  Quel est le problème à l’origine de l’intervention gouvernementale ?
les intentions  Pourquoi est-ce un problème public ?
 Est-ce que la définition politique de la raison d’être possède une
contrepartie scientifique ?
 Quelle est cette contrepartie le cas échéant ?
 Le problème existe-t-il toujours ?
 L'intervention a-t-il encore une raison d’être ; est-ce qu’elle possède
(Pertinence) toujours une pertinence ? Les composantes de l’intervention sont-
elles nécessaires ?
 Le problème aurait-il été entrepris sans l’aide de l’État ?
 Problème social ?
2- Cibles  Que cherche-t-on à modifier (comportements, attitudes, etc.) par
cette intervention ?
 Quelle est la situation précise que l’on souhaite modifier directement
par l'intervention ?
 Quelle est la variable d’intervention ?
 Quelle est la chaîne de causes à effets qui va de l'intervention à la
situation à modifier ?
 Quelle clientèle est visée par cette intervention ?
(Pertinence)  Les groupes défavorisés sont-ils concernés par l'intervention?
 A-t-on visé les bonnes clientèles cibles ?
 Doit-on viser d’autres clientèles ?
3- Objectifs  Quel est le résultat escompté ?
 Quelle situation finale désire-t-on retrouver après l’intervention ?
 Quel est l’état souhaité de la cible de l'intervention ?
 Dans quelle mesure les objectifs de l’intervention sont-ils en
adéquation avec les besoins et priorités ?
(Pertinence)  Dans quelle mesure les objectifs de l’intervention sont-ils en
adéquation avec les besoins et priorités des groupes défavorisés ?
 Dans quelle mesure les objectifs de l’intervention sont-ils en
adéquation avec la réduction des iniquités entre les groupes les plus
aisés et les groupes les plus défavorisés ?

21
Source Guide national d’évaluation, Ministère du plan et du développement (2016)

VII
II- Questions sur
l'intervention
et ses
effets/impacts
- l’effort consenti 4- Nature de  Quelle est donc la nature de cette intervention ? Description de
l’intervention l'intervention du point de
vue qualitatif.
5- Ressources  Quelles sont les ressources financières, humaines et matérielles
investies consenties à l’atteinte des objectifs de l'intervention ?
 Est-ce que l'intervention utilise des ressources de la manière la plus
(Efficience) économique pour atteindre les résultats visés d'équité ?
6- Activités de  Comment ces ressources sont-elles transformées par la production Vient avant la nature de
production publique pour offrir le bien-être ou subvention que reçoit la l’intervention.
population ? Décrire comment
l'intervention est conçue
ou la combinaison
précise des moyens pour
atteindre les objectifs.

 Quel est le rationnel qui relie logiquement la raison d’être, la cible,


les objectifs et le choix de ces moyens ? (y-a-t-il une cohérence
entre les activités et le mandat de l'intervention ? pertinence des
hypothèses qui sous-tendent la structure de l'intervention)
(Cohérence)
7- Implantation  Quels sont les principaux obstacles à l'implantation de l'intervention?
 Qu'apprend-t-on sur les bonnes pratiques à partir des interventions
déjà implantées?
 Quels sont les atouts de l'intervention et les difficultés à éviter
d'après les expériences d'autres implantations?
 Le contexte d'implantation favorise-t-il la mise en œuvre de
(Cohérence) l'intervention planifiée? Comment?
 Quels aspects de la conception de l'intervention faudrait-il modifier
pour obtenir les résultats attendus dans ce contexte d'implantation
particulier?
 L'intervention est-elle implantée selon les prévisions?
 Des évènements internes ou externes affectent-ils l'intervention, son
personnel, sa clientèle-cible et les groupes défavorisés?
 Quelles sont les forces et les faiblesses de l'intervention?

VIII
 Quelles sont les différences entre les divers lieux d'implantation pour
ce qui est des points forts et des points faibles? Comment expliquer
ces différences?
- les effets/impacts 8- Impacts  Quel est l’impact brut de l'intervention ?
 Quelle est l’évolution naturelle de la situation cible ?
(Impact)  Quel est l’impact net de l'intervention ?
 Quel est l’impact net de l'intervention sur les groupes les plus
défavorisés ?
 Comment les résultats affectent-ils les droits et les responsabilités
des individus, les communautés et les institutions les plus
défavorisés ?
 Dans quelle mesure les résultats ont-ils contribué à réduire les
iniquités entre les plus aisés et les groupes les plus défavorisés ?
 Quels facteurs externes à l'intervention peuvent également
influencer la situation cible ?
 Existe-t-il des théories qui suggéraient déjà des facteurs externes et
des impacts possibles ?
 L'intervention affecte-t-il d’autres situations que la situation cible ?
 Comment se compare la situation espérée (telle que définie par les
objectifs) à la situation finale ?
(Utilité)
9- Atteinte des  Comment se compare la situation cible après intervention avec la
objectifs situation souhaitée ?
 Dans le cas d’une variable cible quantifiable, quel est le résultat :
(Efficacité) Ciblet1-Objectif ?
 Est-ce que l'intervention a obtenu des résultats satisfaisants en
relation avec les résultats déclarés des objectifs axés sur l'équité ?
10- Rendement  Quelle est la productivité du moyen d’intervention ? Rendement absolu des
III- Questions des  Quel est le ratio impacts nets/effort ? le ratio avantages-coûts ? ressources
d’évaluation ressources  Les impacts et les ressources de l'intervention sont-ils distribués
proprement dans le temps ?
dite (Efficience)  Les impacts sur diverses cibles prévues et non prévues s’expriment-
ils dans les unités comparables ?
 Les diverses ressources s’expriment-elles également dans des
unités comparables ?
 Dispose-t-on de l’expertise pour estimer l’intérêt et le coût des
différentes possibilités méthodologiques à cette étape ?

IX
11- Solutions de  Comparé à des solutions de rechange, quel est le rang de Rendement relatif des
rechange l'intervention étudiée en termes de rendement absolu des ressources
(Efficience) ressources ?
12- Valeur  Quelle est la pertinence du problème quant au rendement observé
des ressources ?
(Efficience)  Quel est le rendement de l'intervention (en ratio avantages-coûts)
par rapport à d'autres destinées à régler d’autres problèmes ?
 Quel est le rendement de l'intervention par rapport à ceux obtenus
par les contribuables quand ils disposent eux-mêmes des
ressources consacrées à ladite intervention ?
Autres questions 13- Gouvernance  Quels sont les modes de gestion en cours dans le secteur ?
 Les méthodes de gestion sont-elles à même de produire les effets
(Gouvernance) escomptés de la politique ?
14- Système  Comment circule l’information entre les différents centres de
d'information décision ?
 Comment est gérée l’information sur l'intervention ? Quel est le
(Système degré de transparence du système d’information mis en place ?
d'information)
15- Appropriation  Les parties prenantes sont-elles toutes associées à la réflexion et à
l’action ?
(Appropriation)  Ont-elles accepté l'intervention ? Convient-elle à leurs aspirations ?
Le transfert des compétences est-il à même de permettre la
capitalisation et la pérennisation par les bénéficiaires eux-mêmes ?

X
Annexe 6 : Quelques ressources en ligne pour l’évaluation
Une variété de sites Internet propose une sélection complète de ressources relatives au suivi
et à l’évaluation, y compris des guides, des outils, des formations, des liens vers d’autres sites
sur le suivi et de l’évaluation, des associations et des organisations internationales, des
groupes de discussion sur Internet, etc. La liste suivante est un échantillon :

Ressources sur le suivi et l’évaluation disponibles sur Internet

- CARE Program Quality Digital Library. 2011. http://pqdl.care.org/default.aspx

- Catholic Relief Services Technical Resources – M&E. 2011.


http://www.crsprogramquality.org/m-and-e/

- The Evaluation Center. 2011. Evaluation Checklists. Western Michigan University.


http://www.wmich.edu/evalctr/checklists

- Evaluation Portal. 2011. / www.evaluation.lars-balzer.name/

- EvaluationWiki.org. 2011. Recueil public de termes définis par des utilisateurs et autres
informations sur le suivi et l’évaluation. www.evaluationwiki.org

- Organisation internationale de coopération en évaluation (IOCE). 2011.


www.internationalevaluation.com/events/index.shtml

- INTRAC Resources. 2011. International NGO Training and Research Center.


www.intrac.org/resources.php

- Site web des nouvelles MandE : http://mande.co.uk/. [Une des ressources Internet les
plus complètes sur le suivi et l’évaluation. Comprend un forum de formation :
www.mande.co.uk/emaillists.htm].

- MEASURE (Measure and Evaluation to Assess and Use Results Evaluation). 2008.
http://www.cpc.unc.edu/ measure. [Financé par l’USAID, MESURE propose des
publications sur le suivi et l’évaluation, des outils, des formations et d’autres ressources,
y compris une trousse d’outils de formation sur le suivi et l’évaluation en matière de
population, de santé et d’environnement, www.cpc.unc.edu/ measure/phe-training.]

- National Science Foundation (NSF). 2011. User-Friendly Handbook for Mixed Method
Evaluations. http:// www.nsf.gov/pubs/1997/nsf97153/start.htm [Ressource en ligne
complète].

- Site web OCDE/CAD sur l’évaluation des programmes de développement. 2011.


www.oecd.org/department/0 ,3355,fr_2649_34435_1_1_1_1_1,00.html. Organisation de
coopération et de développement économiques / Comité d’aide au développement. ›
Participatory Planning Monitoring & Evaluation (PPM&E) Resource Portal. 2008.
http://portals.wdi.wur.nl/ppme/index.php?Home . [Contient de très nombreuses
ressources sur la planification du suivi et de l’évaluation].

- Agence de la santé publique du Canada. 2011. Outil d’évaluation des programmes.


www.phac-aspc.gc.ca/ php-psp/toolkiteng.php › Site web proposant des ressources sur
les méthodes d’évaluation et de recherche sociale. 2011.
http://gsociology.icaap.org/methods/ , y compris une série de guides pour débutants,
faciles à utiliser, http://gsociology. icaap.org/methods/BasicguidesHandouts.html.

XI
- Site web du PNUD sur l’évaluation. 2011. Programme des Nations Unies pour le
développement. http:// www.undp.org/eo/

- Site web du Groupe des Nations Unies pour l’évaluation (UNEG). Ressources sur
l’évaluation. 2011. www.uneval.org/evaluationresource/index.jsp?ret=true. Groupe des
Nations Unies pour l’évaluation.

- Site web de l’UNICEF et liens externes pour l’évaluation et les leçons apprises. 2011.
Fonds des Nations Unies pour l’enfance. www.unicef.org/evaluation/index_18077.html

- Wageningen PPM&E Resource Portal. 2011. Planification, suivi et evaluation


participatifs. http://portals.wi.wur.nl/ppme/?PPM%26E_in_projects_and_programs

- Banque mondiale. 2011. The Nuts & Bolts of M&E Systems.


http://web.worldbank.org/WBSITE/EXTERNAL/TOPICS/EXTPOVERTY/0,,contentMDK:2
2632898~pagePK:148956~piPK:216618~theSitePK:336992,00.html

Lignes directrices en matière de suivi et d’évaluation

- ALNAP (Active Learning Network for Accountability and Performance in Humanitarian).


2006. Evaluation Humanitarian Action Using OECD/DAC Criteria.
www.alnap.org/pool/files/eha_2006.pdf

- Croix-Rouge américaine et Catholic Relief Services. RS. 2008. M&E Training and
Capacity-Building Modules, Washington, DC, and Baltimore, MD.
http://pqpublications.squarespace.com/publications/2011/1/18/metraining-and-capacity-
building-modules.html

- Bamberger, Michael, Rugh, Jim, and Mabry, Linda. 2006. Real World Evaluation:
Working Under Budget, Time, Data and Political Constraints. Thousand Oaks, London,
New Delhi: SAGE Publications.
www.realworldevaluation.org/RealWorld_Evaluation_resour.html

- Chaplowe, Scott G. 2008. Monitoring and Evaluation Planning. M&E Training and
Capacity-Building Modules American Red Cross and Catholic Relief Services (CRS),
Washington, DC, and Baltimore, MD.
http://pqpublications.squarespace.com/storage/pubs/me/MEmodule_planning.pdf

- DfID (Department for International Development). 2006. Monitoring and Evaluation: A


Guide for DfIDcontracted Research Programmes. www.dfid.gov.uk/research/me-guide-
contracted-research.pdf

- Commission européenne. Méthodes de l’aide – Volume 1, Lignes directrices, gestion du


cycle du projet
http://ec.europa.eu/europeaid/infopoint/publications/europeaid/documents/49a_adm_pcm
_guidelines_2004_ fr.pdf

- FIDA (Fonds international de développement agricole). 2009. Evaluation Manual:


Methodology and Processes.
www.ifad.org/evaluation/process_methodology/doc/manual.pdf

- FIDA (Fonds international de développement agricole). 2002. A Guide for Project M&E.
IFAD, Rome. http:// www.ifad.org/evaluation/guide/toc.htm

XII
- OCDE/CAD (Organisation de coopération et de développement économiques / Comité
d’aide au développement). 2011. Site web du CAD sur l’évaluation du développement:
http://www.oecd.org/document/35/0,3343,en_21571361_34047972_31779555_1_1_1_1,
00.html

- PNUD (Programme des Nations Unies pour le développement). 2009. Guide de la


planification, du suivi et de l’évaluation axés sur les résultats du développement.
http://web.undp.org/evaluation/handbook/french/docments/PME-Handbook_Fr.pdf

- USAID (United States Agency for International Development). 2007. M&E Fundamentals
– A Self-Guided Minicourse. USAID, Washington, DC.
www.cpc.unc.edu/measure/publications/pdf/ms-07-20.pdf

- Programme alimentaire mondial des Nations Unies (PAM). 2011. Monitoring and
Evaluation Guidelines. http://www.wfp.org/content/monitoring-and-evaluation-guidelines

- Groupe de la Banque mondiale, Groupe d’évaluation indépendante (GEI). 2008.


International Program for Development Evaluation Training.
http://www.worldbank.org/oed/ipdet/modules.html . [Les Modules donnent un aperçu des
concepts et des pratiques clés en matière de suivi et d’évaluation.]

Conception de projets/programmes (cadre logique)

- Caldwell, Richard. 2002. Project Design Handbook. Atlanta: CARE International.


http://www.ewb-international.org/pdf/CARE%20Project%20Design%20Handbook.pdf
[Aperçu complet de la conception du projet en ce qui concerne l’ensemble du suivi et de
l’évaluation].

- Danida. 1996. Logical Framework Approach: A Flexible Tool for Participatory


Development.
http://amg.um.dk/en/menu/TechnicalGuidelines/LogicalFrameworkApproach

- Rugh, Jim. 2008. The Rosetta Stone of Logical Frameworks. Compiled by Jim Rugh for
CARE International and InterAction’s Evaluation Interest Group.
http://www.mande.co.uk/docs/Rosettastone.doc. [Résumé utile des différentes
terminologies des cadres logiques utilisées par les organisations internationales.]

Méthodes de collecte et d’analyse des données

- CARE. 2001. Guidelines to CARE Malawi for the Design of Future Baseline and
Evaluation Studies. http://pqdl.care.org/Practice/Baseline%20Guidelines.pdf

- Cody, Ronald. 2011. Data Cleaning 101. Robert Wood Johnson Medical School. NJ.
http://www.ats.ucla.edu/stat/sas/library/nesug99/ss123.pdf

- Davies, Rich and Dart, Jess. 2005. The “Most Significant Change” (MSC) Technique.
http://www.mande.co.uk/docs/MSCGuide.pdf

- Emergency Capacity Building Project. 2007. The Good Enough Guide: Impact
Measurement and Accountability in Emergencies.
http://www.oxfam.org.uk/what_we_do/resources/downloads/Good_Enough_Guide.pdf

- Harvey, Jen. 1998. Evaluation Cookbook.


http://www.icbl.hw.ac.uk/ltdi/cookbook/cookbook.pdf

XIII
- Mack, Natasha, Woodsong, Cynthia, MacQueen, Kathleen M, Guest, Greg and Namey,
Emily. 2005. Qualitative Research Methods. Family Health International (FHI) and the
Agency for International Development (USAID).
http://www.fhi.org/en/rh/pubs/booksreports/qrm_datacoll.htm

- Magnani, Robert. 1997. Sample Guide. Food and Nutrition Technical Assistance
(FANTA). Academy for Educational Development. Washington, DC.
http://www.fantaproject.org/downloads/pdfs/sampling.pdf

- Les calculatrices d’échantillon en ligne. il existe de nombreuses calculatrices


d’échantillon en ligne. La liste suivante n’est pas exhaustive : Creative Research
Systems: www.surveysystem.com/sscalc.htm ; Custom Insight,
www.custominsight.com/articles/random-sample-calculator.asp ; Raosoft ;
www.raosoft.com/samplesize.html

- Scheuren, Fritz. 2004. What is a Survey ? http://www.whatisasurvey.info/

- University of Florida IFAS Extension. 2011. Determining Sample Size.


http://edis.ifas.ufl.edu/pd006

- PAM (Programme alimentaire mondial des Nations Unies). 2011. Monitoring and
Evaluation Guidelines – How to Plan a Baseline Study.
http://www.wfp.org/content/monitoring-and-evaluation-guidelines

- PAM (Programme alimentaire mondial des Nations Unies). 2011. Monitoring and
Evaluation Guidelines – How to consolidate, process and analyse qualitative and
quantitative data. http://www.wfp.org/content/monitoring-andevaluation-guidelines

- Banque mondiale. 2004. Reconstructing Baseline Data for Impact Evaluation and Results
Measurement.
http://siteresources.worldbank.org/INTPOVERTY/Resources/3356421276521901256/pre
mnoteME4.pdf

XIV

Vous aimerez peut-être aussi