Cours de Validation 1ère Partie. 2022

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 16

Université Mouloud Mammeri de Tizi-Ouzou

Faculté des Sciences Biologiques et des Sciences Agronomiques


Master 1 : Sécurité Agroalimentaire et Assurance Qualité
Enseignante : Mme Benmallem Remane Y

Module : Validation des méthodes d’analyse

I- Introduction
La place prise aujourd’hui par la validation des méthodes parmi toutes les préoccupations
des analystes, doit être mise en relation avec le développement de l’assurance qualité dans les
laboratoires. Les principes de l’assurance qualité sont l’objet de normes publiées par
l’organisation internationale de normalisation ou international standardisation organisation
(ISO) et référenciées comme la série des normes ISO 9000 ;

Ces normes insistent sur le fait que la qualité des produits ou des services fournis par une
entreprise doit être développée pour satisfaire les besoins d’un client. Souvent on résume les
objectifs de la qualité d’un produit ou d’un service comme suit :

 Répondre à un besoin, un usage, ou un objectif bien défini ;


 Satisfaire les attentes des consommateurs ;
 Etre conforme aux normes, spécifications applicables, exigences réglementaires, et
autres ;
 Avoir un prix compétitif ;
 Etre fourni à un coût qui génère un profit.

Les référentiels principaux qui expliquent comment organiser l’assurance de la qualité au


laboratoire :

 Les bonnes pratiques de laboratoire (BPL)


 Le guide de bonne exécution des analyses
 L’accréditation : suit les principes de la norme ISO 17025
 La certification d’un service s’appuie sur les normes ISO 9000

1- Qualité d’une analyse


Si on se place d’un point de vue historique son origine est parvenu avec l’intensification
des relations internationales où les anciens principes de savoir-faire ou de relations
personnelles entre les acteurs économiques ne peuvent plus s’appliquer, il faut mettre en place
un système reconnaissable qui règle les relations entre un fournisseur et un client, et définit
clairement les droits et les devoirs de chacun.

Une définition internationale de la qualité fournie par la norme ISO 8404 et reprise par
l’association française de normalisation NF X50- 109.

1
« La qualité est l’ensemble des propriétés et caractéristiques d’un produit ou d’un service qui
lui confèrent l’aptitude à satisfaire les besoins implicites et explicites d’un client »
- Un client n’est pas obligatoirement étranger de l’entreprise-
Les besoins des utilisateurs (acheteurs) d’analyse peuvent se ramener à deux classes
principales de caractéristiques :
1- Qualité métrologique et technique :
 Le besoin le plus évident est la justesse des résultats c.à.d que le résultat fourni
reflète le plus exactement possible le contenu réel de l’échantillon ;
 Par ailleurs les clients demandent des analyses pour prendre des décisions, il faut
donc que la fidélité de la méthode soit suffisante pour permettre une approche
statistique satisfaisante ;
 En fait ces besoins implicites de justesse et de fidélité se combine en un seul critère
qui est l’exactitude.

2- Qualité économique et sociale


 Ce besoin explicite se traduit par une exigence de rapidité dans l’envoi du
résultat et par la recherche d’une prestation à un coût acceptable, la notion
anglo-saxonne de cost-effectiveness traduit bien ces besoins.
 Un dernier besoin est apparu à la suite de considérations, ainsi une technique
analytique qui ne présente pas de danger pour l’utilisateur et l’environnement
aura plus de chance à connaitre un développement rapide. Finalement, la qualité
d’une analyse comme la qualité de n’importe quel produit ne se définit pas dans
l’absolu. Elle correspond à une valeur d’usage et une propension à payer.

II- Les limites techniques d’une méthode d’analyse


1- Erreur
Tout mesurage réalisé à l’aide de la méthode étudiée donne un résultat, celui-ci est
inévitablement associé à une erreur de mesure définie comme étant la différence entre le
résultat obtenu et la valeur vraie du mesurande.

Définition : « L’erreur de mesure est définie comme étant la différence entre la valeur
mesurée d’une grandeur et une valeur de référence »
L’erreur de mesure comprend deux composantes : Erreur systématique et erreur aléatoire
a- L’erreur systématique ou biais
Moyenne qui résulterait d’un nombre indéfini de mesurage du même mesurande effectué
dans des conditions de répétabilité moins une valeur vraie du mesurande. Les principales
erreurs systématiques sont :
 Les erreurs de méthode
 Les erreurs instrumentales
 Les erreurs personnelles
Les erreurs systématiques sont les plus difficiles à détecter et nécessitent une vigilance
constante dans les laboratoires, certaines procédures dites les bonnes pratiques de laboratoire
permettent de donner un cadre réglementaire à cette vigilance.

2
Définition : « composante de l’erreur de mesure qui dans des mesurages répétés,
demeure constante ou varie de façon prévisible »
b- L’erreur aléatoire :
Affecte la précision des mesures (fortuite : qui arrive par hasard ou imprévue), c’est aussi
le résultat d’un mesurage moins la moyenne d’un nombre infini de mesurages du même
mesurande effectués dans des conditions de répétabilité.
Elle provient de toutes les sources de variation inhérentes aux mesurages (pesée, mesures
volumétrique, manipulation etc…. Ce type d’erreur peut être minimisé en travaillant avec
précaution, on peut également améliorer la précision du résultat en répétant le mesurage.

Définition : « Composante de l’erreur de mesure qui dans des mesurages répétés varie
de façon imprévisible »

Valeur vraie : résultat de l’analyse + erreur systématique + erreur aléatoire

2- Limite de détection (LD)

Est définie comme étant la plus petite quantité d’une substance à examiner dans un
échantillon pouvant être détectée mais non quantifiable comme une valeur exacte. Ou la plus
basse concentration pour un composé analysé dans une matrice qui lorsqu’il subit toutes les
étapes d’une méthode complète incluant les extractions et les prétraitements produit un signal
détectable avec une faisabilité définie statistiquement différente de celui produit par un blanc
dans les mêmes conditions.

3- Limite de quantification

Elle est définie comme étant la plus petite quantité d’une substance à examiner pouvant
être dosé dans les conditions expérimentales décrites avec une justesse et une reproductibilité
définie.
 En dessous de la LD l’analyte est absent
 Entre LD et LQ l’analyte est présent mais non quantifiable exactement : la méthode
n’est que qualitative.
 Au-dessus de la LQ l’analyte est présent et quantifiable, la méthode devient
réellement quantifiable.

4- Limite de linéarité
C’est la capacité d’une méthode d’analyse à l’intérieur d’un certain intervalle à fournir une
valeur d’information ou des résultats proportionnels à la quantité en analyte à doser dans le
matériau d’essai pour le laboratoire. Les limites de linéarité sont les limites expérimentales de
grandeurs, entre les quelles un modèle d’étalonnage peut être appliqué avec un niveau de
confiance connu.

3
5- Interférences
On peut citer les interférences chimiques ou effets de matrice, elles résultent des réactions
chimiques parasites (oxydoréduction, ionisation, ou dissociation), ou de la présence de
particules en suspension, quant aux interférences physiques : elles sont liées à la viscosité des
échantillons qui peut être différente de celle des étalons.
Les interférences peuvent causer des erreurs systématiques dans l’analyse.
Pratiquement, les interférences ont deux conséquences néfastes. Soit elles entraînent une
surestimation de la concentration de l’échantillon, car la réponse est plus élevée de ce qu’elle
devrait être. Soit elles causent une sous-estimation de la concentration, car le signal est
partiellement masqué.

6- Dérives
Variations continue ou incrémentales dans le temps d’une indication due à des variations
des propriétés métrologique d’un instrument de mesure.

7- Estimation de l’incertitude de mesure


L’incertitude de mesure est un paramètre lié au résultat d’une mesure, qui décrit le degré
de variation des valeurs qui peuvent être raisonnablement associées à la grandeur mesurée.
Dans l’estimation de l’incertitude les taux de faux positifs et de faux négatifs
procurent des indications importantes.

a- Taux de faux positifs


Il se calcule par le quotient du nombre de résultats faux positifs sur le nombre de résultats
négatifs obtenus par la méthode de référence.

100 x nombres d’échantillons négatifs connus mal classés


% résultats faux positifs =
Nombre total d’échantillons négatifs connus

b- Taux de faux négatifs


Il se calcule par le quotient du nombre de résultats faux négatifs sur le nombre de résultats
positifs obtenus par la méthode de référence.
100 x nombre d’échantillons positifs connus mal classés
% résultats faux négatifs =
Nombre total d’échantillons positifs connus

4
III. Présentation des normes et ligne directives relatives à la validation
des méthodes analytique
Dans le domaine analytique on s’appuie généralement sur un ensemble de textes des normes
pratiques bien établies et reconnues pour l’évaluation des critères de performances des
méthodes d’analyse. Avant de donner les différents critères de performance, on doit d’abord
donner un aperçu succinct sur ces normes.
1- Les normes de la série ISO 5725
L´ISO 5725 utilise deux termes : « justesse » et « fidélité » pour décrire l´exactitude d´une
méthode de mesure. La justesse réfère à l´étroitesse de l´accord entre la valeur moyenne d´un
grand nombre de résultats d´essai et la valeur de référence vraie ou acceptée. La fidélité se
réfère à l´étroitesse de l´accord entre les résultats d´essai.

Il s’agit donc d’une norme divisée en six parties et établie par la structure de l’ISO traitant
des méthodes statistiques relatives à l’analyse.

ISO 5725. Partie 1


Principes généraux et définitions,

2. Lignes directrices IUPAC/AOAC


Le travail adopté est fait en collaboration entre les 2 organisations, leur protocole commun
est plus pratique que la norme ISO 5725, prodiguant un grand nombre de conseils pour réussir
un essai inter-laboratoires. Le protocole a été initialement développé pour les méthodes
chimiques, mais il apparaît que bon nombre de ses dispositions sont applicables de façon plus
générale.
Le protocole expérimental inclut une première étape qui n’est pas prévue dans la norme
ISO 5725 : une étude préliminaire effectuée par un laboratoire qui est normalement le
laboratoire pilote, organisateur de l’essai inter-laboratoires. Cette étude préliminaire comporte
les étapes suivantes :

1. Sélection de la méthode appropriée à l’objectif poursuivi


2. Optimisation de la méthode, en fonction des interférences et de la robustesse de la méthode,
testée pour identifier et maîtriser les variables critiques. Ici est rappelée l’importance
d’optimiser suffisamment une méthode avant de la soumettre à un essai inter-laboratoires ; le
risque étant d’invalider le résultat d’un tel effort collectif qui aurait été consacré à une
méthode non suffisamment optimisée.
3. Caractérisation intra-laboratoire de la méthode optimisée : spécificité (interférences),
variabilité (répétabilité et reproductibilité intra-laboratoire) et domaine d’application.
4. Description détaillée de la méthode.
5. Étude pilote incluant trois laboratoires, si les ressources et le temps le permettent.
En accord avec l’ISO 5725, mais avec plus de détails, la procédure AOAC recommande de
sélectionner les participants qui ont une expérience dans les techniques de base requises, sans
pour autant avoir forcément une expérience de la méthode elle-même.

5
3. Norme EN ISO16140
Une place particulière est accordée à cette norme, qui représente le premier référentiel
normalisé à traiter de la validation de méthodes d’analyse microbiologique des aliments. Le
projet visait à établir un système européen de validation de méthodes alternatives en
microbiologie des aliments.
Cette norme conçoit la validation d’une méthode dans son sens le plus complet, puisque
deux étapes sont prévues :
1. Une étude préliminaire, effectuée par un seul laboratoire. Cette étude permet de
caractériser la méthode par plusieurs critères de performance, soit la justesse, la limite de
détection/quantification, la spécificité –inclusivité et exclusivité-, ainsi que la linéarité pour
les méthodes quantitatives.
2. Un essai inter-laboratoires.
L’étude préliminaire est beaucoup plus complète que celle préconisée par AOAC. Elle vise
en effet à établir un plus grand nombre de critères de performance analytique, dont la justesse
sur la base de l’étude d’échantillons naturellement contaminés. Le protocole technique pour
l’organisation et l’exploitation de l’étude préliminaire et de l’essai inter-laboratoires est défini
séparément pour les méthodes qualitatives (présence/absence d’un microorganisme) et pour
les méthodes quantitatives (dénombrement de microorganismes, ou méthodes indirectes de
dénombrement).
La norme a pour objectif principal de valider une méthode alternative par rapport à une
méthode de référence.

a- Organisation des essais et protocole expérimental


L’annexe H de la norme définit des lignes directrices pour l’organisation des essais inter -
laboratoires, que ces essais portent sur des méthodes qualitatives ou quantitatives. La plupart
de ces dispositions sont spécifiques de la microbiologie.
b- Choix des échantillons et types de matrices.
Il est indiqué que les matrices liquides, comme le lait, permettent une meilleure
homogénéité s’ils sont préparés et répartis de façon à ne pas modifier le contenu
microbiologique. Dans ce cas, un ensemencement global de la matrice liquide peut être
pratiquer, avant de préparer chaque échantillon. Outre la question de l’homogénéité, ce mode
de contamination peut permettre de se rapprocher des conditions d’une contamination
naturelle, le microorganisme cible pouvant établir des interactions avec la matrice et avec la
flore annexe.

c- Type de contamination.
La contamination artificielle est la règle générale − strictement pour les déterminations
qualitatives − à partir d’un matériau dont on a démontré, selon un protocole précisé, qu’il ne
contient pas le microorganisme cible. La contamination artificielle doit être effectuée :
 Soit par mélange du matériau liquide ou semi-solide avec un échantillon naturellement
contaminé du même type ;
 Soit par une contamination du matériau avec un matériau de référence ou une souche
isolée du même type de produit et soumise à un stress ;

6
 Toujours en présence d’une microflore de fond représentative dans sa nature et sa
quantité de celle rencontrée naturellement dans le produit considéré.
La norme préconise dans le cas général un ensemencent individuel de chaque échantillon,
y compris pour chacune des répétitions. Ce type de contamination représente effectivement
une façon satisfaisante de tendre vers l’homogénéité de contamination entre échantillons du
même niveau.
d- Homogénéité/stabilité. La norme est très lapidaire sur ce sujet, se contentant de :
 Fixer les objectifs d’homogénéité vis-à-vis du microorganisme cible et de la flore
annexe, et de stabilité des échantillons pendant le transport jusqu’au lancement des
analyses ;
 Et demander au laboratoire organisateur de mener des études d’homogénéité et de
stabilité avant de distribuer le matériau d’essai.
e- Transport.
Des prescriptions adaptées au transport de denrées périssables sont données, concernant en
particulier la température de réfrigération ou de congélation. Il est demandé d’inclure dans
chaque paquet un échantillon témoin pour mesurer la température à réception.

f- Vérification de la qualité des échantillons.


Chaque participant doit dénombrer la flore totale d’un des échantillons.
De plus, le laboratoire organisateur doit analyser le jour du début de l’analyse pour
l’ensemble des participants un certain nombre d’échantillons de chacune des combinaisons
« matrices x niveau de contamination en microorganisme cible », conservés dans des
conditions équivalentes à celles des échantillons distribués.

g- Conditions opératoires de l’analyse.


À propos de l’une des conditions opératoires critiques, à savoir la qualité et la composition
des milieux de culture, la norme recommande deux options :
1. Soit limiter la variabilité des milieux de culture, en distribuant des milieux issus d’unmême
lot de fabrication à tous les participants.
2. Soit prendre en compte cette variabilité lors de l’interprétation des données.
Il convient donc de prendre en compte cette variabilité lors de l’établissement descritères
de fidélité de la méthode. Cette variabilité peut être très importante pour certains typesde
milieux.
Quant aux autres conditions opératoires (lancement de l’analyse, temps/température
d’incubation, pesées…), la norme recommande à juste titre de les spécifier le plus
précisément possible
h- Questionnaire accompagnant le rapport d’analyse.
La norme précise le contenu du questionnaire que devra remplir chaque participant, en
même temps que le rapport d’essai. Ce questionnaire doit recenser les points critiques pour la
variabilité des résultats, en ce qui concerne :
 L’organisation, soit l’état des échantillons après transport, les conditions de leur
conservation avant analyse ;
 Le mode opératoire ;
 Le contrôle qualité des milieux de culture

7
i- Cas des méthodes qualitatives
Protocole expérimental et examen des résultats
Outre les aspects généraux déjà exposés du protocole expérimental, certaines
exigencescomplémentaires sont précisées :
􀂃Au moins 10 laboratoires participants dont les résultats sont exploitables ;
􀂃Un seul matériau (une matrice) à choisir, en fonction du germe étudié ;
􀂃 3 niveaux de contamination :
 Un témoin négatif (noté L0),
 Un niveau juste supérieur à la limite de détection de la méthode (L1),
 Un niveau à environ 10 fois cette limite de détection (L2) ;
􀂃 8 répétitions à chaque niveau de contamination ;
􀂃 analyse en aveugle.
Le choix d’un nombre élevé de répétitions, par rapport au nombre habituellement retenu de 2,

j- Cas des méthodes quantitatives


Protocole expérimental
Tout comme pour les méthodes qualitatives, les aspects spécifiques s’ajoutant aux lignes
directrices communes sont recensés ci-après :
 Au moins 8 laboratoires participants dont les résultats sont exploitables.
 Mode de contamination. En dépit des avantages d’une contamination artificielle
(homogénéité de la contamination), la possibilité d’avoir recours à une contamination
naturelle est ouverte. En effet, certains dénombrements en microbiologie des aliments
portent sur des cibles très larges, telles que la flore totale, les levures et moisissures,
les coliformes, pour ces cibles, il est très difficile sinon impossible de reconstituer
artificiellement un inoculum avec des souches d’espèces d’une diversité suffisante
pour représenter la population ciblée.
 Un seul matériau (matrice) à choisir, en fonction du germe étudié.
 4 niveaux de contamination : un témoin négatif, un niveau inférieur, moyen et
supérieur couvrant l’ensemble du domaine d’application.
Echantillons en double à chaque niveau de contamination, analysés en aveugle

4. Lignes directrices AOAC

Dès le début du document, les auteurs affichent leur intention d’harmoniser ce protocole
avec la norme EN ISO 16140. De ce fait, les définitions sont pour la plupart tirées de la norme
et nombre de spécifications du protocole expérimental sont communes aux deux protocoles.

8
VI. Les critères de performance d’une méthode analytique

1. Limite de détection
Pour les analyses instrumentales, le LD s’exprime souvent en termes de rapport signal/bruit.
L’AOAC définit le LD comme le niveau de paramètre dont le signal signifie 3 x l’écart type
du bruit de fond.
La limite de détection d’une méthode s’exprime :
LDM = 3 x S (3fois S)
Où LDM : limite de détection de la méthode
S : écart type
Rappel : moyenne arithmétique des réplicas

Où X = moyenne arithmétique d’une série de mesure

∑ Xi
X= (égale à la somme des Xi sur n)
n
Xi : mesure individuelle

∑ (X - Xi) 2
S= √ (racine carré du rapport)
n

n : nombre de mesures

S : Ecart type d’une série de mesures

La limite de détection telle qu’appliquée aux agents contaminants des aliments peut se
définir comme la concentration minimum de contaminant dans un échantillon d’aliment qui
peut être décelée qualitativement mais pas quantitativement. LD définit la quantité minimum
de contaminant dans un échantillon en dessous de laquelle aucune valeur finie ne peut être
notifiée (par exemple : non décelable à une limite de détection d’un µg / Kg).

2. Limite de quantification

C’est la concentration équivalente à 10 x l’écart type obtenu lors de l’établissement de


LQM.
LQM = 10 x S où S : écart type
LQM : limite de quantification de la méthode
Le comité du Codex sur les résidus de pesticides utilise l’expression de limite de
détermination qui se définit comme la concentration d’un résidu de pesticide ou d’un
contaminant la plus faible que l’on puisse déterminer et mesurer quantitativement dans une

9
denrée alimentaire spécifique en production agricole ou en alimentation animale avec un
degré de certitude acceptable au moyen d’une méthode d’analyse réglementaire.
Exemple de calcul en chimie (analyse colorimétrique)

Calcul de LD et LQ d’une méthode

Analyste Jean
Date 01/ 02/2015
Paramètre NO3-NO 2

Technique d’analyse Colorimétrie


Méthode utilisée MA 303 – NO3 10
(Code de la méthode)

Concentration de la solution utilisée au départ : 0,100 mg/L

Essai Valeur
NO3- NO2 mg/l
1 0,114
2 0,101
3 0,104
4 0,096
5 0,101
6 0,098
7 0,097
8 0,101
9 0,091
10 0,107

1 ;2 ;3 … répétitions
Moyenne X Ecart type
0,101 0,0064

LDM : limite de détection de la méthode


LQM : limite de quantification de la méthode

R= X/LDM : Ratio= moyenne/LDM

Ce rapport doit être > à 4 pour accepter la LDM

Calcul
3x S= LDM 10 x S = LQM X/ LDM=R
3x 0,0064 10 x 0,0064 0,101 / 0,02= 5

R : ratio de conformité

10
Le calcul du ratio de conformité nous permet de déterminer la validité d’une démarche pour
l’établissement d’une limite de détection en général si le résultat du calcul pour un ratio R qui
sert à l’établissement d’une limite de détection n’est pas > à 4 il faut recommencer la
procédure d’établissement de la LD avec un échantillon qui a une concentration plus haute.
Si 4 < R < 10 la concentration utilisée est adéquate

Si R < 4 : ce ratio indique que la limite réelle de détection de la méthode est plus élevée que la
limite de détection estimée lors des essais, reprendre les essais en révisant la limite de
détection estimée et la concentration utilisée.

Si R > 10 : ce ratio indique que la limite réelle de détection de la méthode est plus basse que
la limite de détection estimée lors des essais.
3. Fidélité
C’est l’étroitesse de l’accord entre les résultats obtenus en appliquant le procédé expérimental
à plusieurs niveaux (n= 10 réplicas) dans des conditions déterminées. C’est aussi le
coefficient de variation (CV) ou le degré de dispersion.
Elle est généralement exprimée par le coefficient de variation (CV en %) qui est obtenu en
effectuant le rapport entre l’ecart type (S) des différents résultats d’essais et la moyenne des
réponses observées.
S
CV % = x 100 m : moyenne
m
La fidélité traduit uniquement la distribution des erreurs aléatoires et n’a aucune relation avec
la valeur vraie ou spécifiée.

La fidélité d’une méthode dépend de plusieurs facteurs :

Mains d’œuvre milieu


Méthodes

Fidélité

Moyens Matières

Principales sources d’erreurs qui influencent la fidélité d’une méthode

11
Les différents paramètres de la fidélité

a- Replicabilité :
Ce sont les conditions où les résultats d’essais indépendants sont obtenus par la même
méthode sur des échantillons d’essai identiques dans le même laboratoire par le même
opérateur, utilisant le même équipement et pendant un court intervalle de temps.
Fidélité mesurée avec des résultats d’essais indépendants obtenus :
 Par la même méthode
 Sur des échantillons identiques
 Avec le même laboratoire
 Avec le même équipement
Elle s’estime à partir de l’écart type de la série de mesure, ou du coefficient de
variation.

b- Repétabilité
C’est une mesure de variation des résultats pour des échantillons traités de la même façon à
l’intérieur de séquences d’analyses différentes c.à.d que les échantillons doivent être analysés
en variant l’un des paramètres suivants : la journée d’analyse, (pendant un intervalle de temps
donné), l’analyste ou l’instrument.

Fidélité mesurée avec des résultats d’essais indépendants obtenus :


 Par la même méthode
 Sur des échantillons identiques
 Dans le même laboratoire
 Variation de l’un des paramètres : opérateur, instrument ou la journée d’analyse
Elle s’estime à partir de l’écart type de la série de mesure ou du coefficient de variation.

c- Reproductibilité
Résultats d’essais indépendants sont obtenus par la même méthode sur les échantillons
identiques, dans différents laboratoires, avec différents opérateurs en utilisant des
équipements différents, il s’agit d’une étude inter-laboratoire.
Fidélité mesurée avec des résultats d’essais indépendants obtenus :
 Par la même méthode
 Sur des échantillons identiques
 Dans des laboratoires différents
 Avec des opérateurs différents
Elle s’estime aussi à partir de l’écart type de la série de mesures ou du coefficient de
variation.

Méthodes de calcul

1- A partir de l’écart type


t(0,975 ; n-1) x S1
Fidélité sous conditions de replicabilité =

12
√n
t t(0,975 ; n-1) x S2
Fidélité sous conditions de répétabilité =
√n
t(0,975 ; n-1) x S3
Fidélité sous conditions de reproductibilité =
√n
Où :
 S1 : l’écart type d’une série de mesures se référant à la réplicabilité
 S2 : l’écart type d’une série de mesures se référant à la répétabilité
 S3 : l’écart type d’une série de mesures se référant à la reproductibilité
 n : 10 réplicas généralement

Lorsque n ≥ 30 t (0,975. n – 1) = 2, pour n < 30 il faut se référer à une table statistique de la


distribution de Student pour connaître la valeur t (0,975 n – 1) correspondant à la probabilité au
dépassement bilatéral.

2- A partir du coefficient de variation CV%


CV = 100 x S1/m (replicabilité)
CV = 100 x S2/m (répétabilité)
CV = 100 x S3 /m (reproductibilité)
Comparés à un CV limite admissible déterminé préalablement (fournisseur)
La reproductibilité est toujours moins bonne que la répétabilité (car il y’a toujours des
facteurs qui varient.

4. Justesse

C’est l’étroitesse de l’accord entre la valeur moyenne obtenue à partir d’une large série de
résultats d’essais et une valeur de référence acceptée.
Elle s’exprime quantitativement en terme de « biais », plus le biais est petit plus la justesse
est grande. Le biais est typiquement déterminé en comparant la réponse de la méthode à un
matériau de référence présentant une valeur connue.
Elle est exprimée en % de la valeur cible selon le calcul suivant :
m-V V : valeur cible
Biais = x 100 m : moyenne obtenue
V
Justesse % = 100 – (erreur relative) x 100

5. la sensibilité
La sensibilité d’une procédure d’analyse peut être définie comme étant le rapport de la
variation de la réponse de la méthode d’analyse à la variation de la quantité d’analyte. Une
procédure est dite sensible, si une faible variation de la concentration ou de la quantité
d’analyte entraine une variation significative de la réponse. Lorsque l’on se réfère à des
paramètres qui ont une courbe d’étalonnage linéaire on peut exprimer le sensibilité comme

13
étant la pente moyenne d’un minimum de 2 courbes, autrement on l’exprime par un rapport
entre le signal obtenu et la concentration d’un étalon à l’intérieur de la plage pratique de la
courbe.
y2 -y1
Pente = sensibilité = pente
x2 -x1

 Exemple 1 : pour une concentration 10mg /l le signal est de 1000 unités (y1 et x1 =
0)
y2 - y1 (1000 – 0) unité de signal
m1= = = 100 unités
x2 – x 1 (10 – 0) mg/l

 Exemple 2 : pour une concentration de 10 mg/ l le signal est de 200 unités (y1 et x1
= 0)
y2 -y1 (200 – 0)
M2= = = 20 unités de signal /mg l-1
x2 – x1 (10 - 0)
La pente m1 représente une meilleure sensibilité, une augmentation de concentration se
traduit par un gain de signal. La sensibilité nous informe sur l’état d’un système analytique er
nous permet de voir le changement des conditions de système dans le temps.

6. Pourcentage de récupération

Il permet d’identifier pour un échantillon donné ou un type de matrice donnée et à un


niveau de concentration donnée la présence d’interférences potentielles lors des procédures
d’analyse. Le taux de récupération correspond à la différence en % entre la concentration
mesurée d’un échantillon fortifié et la concentration mesurée du même échantillon non fortifié
divisé par la concentration de la substance ajoutée. Ce rapport tient compte de la
transformation chimique qui s’est produite s’il y’a lieu, ce taux est donc exprimé :

14
Cf - C
Taux de récupération % = x 100
Ca
Cf : concentration mesurée de l’échantillon fortifié
C : concentration mesurée de l’échantillon non fortifié
Ca : concentration mesurée de la substance ajoutée

7. Exactitude (comme la justesse)


Concerne un résultat seul et représente l’accord entre le résultat d’un mesurage et la valeur
vraie du mesurande.

Exactitude en % = 100 – Erreur relative

Vo - VS
Erreur relative % = x 100
Vs
Vs : valeur certifiée
Vo : valeur observée

8. Robustesse

Capacité à rendre les résultats exacts en présence de faibles changements de conditions


expérimentales susceptibles de se produire dans l’utilisation de la procédure. Cette étude
nécessite à mettre en place d’un plan d’expérience à l’initiative de l’analyste en fonction de
facteurs de variation qu’il a pu déceler, une légère modification des conditions
expérimentales (d’un ou de plusieurs paramètres) ne modifie que très peu la réponse mesurée.
Cette propriété sera prise en considération par exemple si on dispose d’opérateurs très peu
expérimentés.
Autres facteurs : temps d’extraction, temps d’agitation, températures….

9. Spécificité

Indique si la réponse mesurée pour l’analyte est perturbée par la présence d’autres espèces
(physico-chimiques). Une méthode d’analyse spécifique est adaptée aux changements de
matrices, si la méthode de mesure est spécifique, l’étape préalable de traitements de
l’échantillon analytique sera considérablement allégée d’où un gain de temps et une
diminution des causes d’erreurs ;
C’est la capacité de faire la discrimination analyte/ substances interférentes
Garantir que le résultat de l’analyse correspond à l’analyte (comparaison avec les résultats
obtenus sur des échantillons contenant des impuretés ou des produits de dégradation : lumière,
température, humidité, hydrolyse acide ou alcalin ; …)

10.Praticabilité

15
Elle doit être évaluée en fonction des paramètres comme la quantité d’échantillons qui peut
être traitée pendant un temps donné, les coûts fixés pour appliquer la méthode et les coûts
approximatifs par échantillon. Les difficultés pratiques rencontrées dans l’utilisation
quotidienne ou dans des conditions particulières.
Exemple :
 Le délai des résultats est le même que la méthode de référence
 Méthode facile à mettre en œuvre et plus pratique que la méthode de référence car
le milieu est prêt à l’emploi, gestion des déchets plus faciles…

11. Aptitude à l’automatisation

Critère important si l’on souhaite diminuer le délai de réponse et augmenter ainsi la


cadence des analyses en vue de diminuer le coût.

16

Vous aimerez peut-être aussi