View
223
Download
3
Category
Preview:
Citation preview
CHOIX ET VALIDATION D’UNE METHODE D’ANALYSE
Christian Ducauze, Arlette Baillet-Guffroy et Thanh X. Bui
1
CHOIX ET VALIDATION D’UNE METHODE D’ANALYSE
- Résumé - 1 - Description d’une méthode d’analyse
- Schéma général représentant les principales étapes d’une analyse
- Définir une méthode d’analyse consiste à décrire chacune de ses étapes, indissociables les unes des autres, en précisant pour chacune d’elles les opérations élémentaires qu’il faut réaliser
- Il existe de très nombreuses méthodes de mesure. Le choix de l’une d’entre elles va guider le choix de la méthode de traitement qui sera préalablement appliquée à l’échantillon analytique (= prise d’essai)
- Le traitement de l’échantillon analytique constitue en règle générale l’étape clef de la méthode d’analyse : elle contient la majeure partie de l’erreur analytique et représente un facteur limitant en termes de rapidité et d’automatisation
2 - Performances et critères de choix d’une méthode d’analyse - Limites de détection et de quantification
- Justesse et fidélité (répétabilité) ; exactitude et reproductibilité
- Domaine de linéarité et sensibilité
- Robustesse
- Spécificité, rapidité et aptitude à l’automatisation
- Coût (investissement et fonctionnement)
3 - Validation d’une méthode d’analyse
- Objectifs : avoir une méthode juste (sans biais) et connaître sa fidélité (répétabilité)
- Moyens : estimation puis élimination du biais de la méthode
DEMARCHE
1. Préparation d’un Echantillon de Référence Interne du Laboratoire (ERIL)
2. Estimer le biais
- par rapport à une méthode de référence
- par rapport à un échantillon de référence
- au moyen d’une analyse inter-laboratoires
3. Eliminer le biais ===> Recherche des causes d’erreurs
- Eviter les erreurs liées à la réponse instrumentale
- S’affranchir des effets de matrice : méthode des ajouts dosés et des dilutions
- Optimiser la méthode de traitement de l’échantillon analytique
APPLICATION
ERIL + méthode validée =>
mise en place d’un contrôle interne de la qualité des mesures, en construisant une carte de contrôle et en utilisant l’échantillon ERIL
2
1 – DESCRIPTION D’UNE METHODE D’ANALYSE
Une analyse chimique peut être définie comme une suite d’opérations élémentaires,
statistiquement indépendantes les unes des autres, qui commencent au moment de la prise d’essai
(prélèvement d’un échantillon analytique sur l’échantillon de laboratoire) et aboutissent à
l’expression d’un résultat d’analyse qu’il faudra valider pour pouvoir disposer enfin d’une
donnée analytique.
On a pour habitude de regrouper ces opérations élémentaires en quelques étapes principales,
telles qu’elles sont représentées sur la figure 1 où il est rappelé que l’analyse chimique s’insère
dans une procédure analytique et que celle-ci devra être également validée pour atteindre
l’information chimique recherchée.
Pour la mesure, on dispose d’un très grand nombre de méthodes qu’on trouvera décrites dans des
ouvrages généraux(1), des ouvrages consacrés à un domaine d’application particulier (2) ou dans
les très nombreux ouvrages, plus spécialisés, qui permettent d’approfondir l’étude de telle ou
telle méthode. Mais il est important de remarquer ici que la méthode d’analyse correspond à une
combinaison choisie des différentes étapes, que ces étapes sont interdépendantes et qu’il faut les
prendre globalement en compte, s’il s’agit par exemple de valider la méthode.
La méthode choisie pour l’étape de traitement de l’échantillon analytique est en particulier
étroitement liée au choix qui aura été fait pour la méthode de mesure et, si l’on est confronté au
choix d’une méthode d’analyse, la réflexion devra donc simultanément porter sur ces 2 étapes,
en ayant bien conscience du verrou que l’étape de traitement de l’échantillon constitue pour
l’analyse.
(1) Rouessac F, Rouessac A (2000). Analyse chimique – Méthodes et techniques instrumentales modernes, 5e édition, Dunod, Paris. (2) Ducauze C.J (2003).Méthodes d’analyse pour la recherche des fraudes alimentaires. In : Fraudes alimentaires – Approche réglementaire et méthodologie analytique, pp. 107-134, Tech & Doc Lavoisier, Paris.
CHOIX ET VALIDATION D'UNE MÉTHODE D'ANALYSE
3
Prise d’essai (échantillon analytique)
Traitement de l’échantillon
Conversion du signal analytique
Conservation
Etalonnage Mesure
Structuration des données chimiques
Validation de la procédure analytique
Validation des résultats
Information chimique attendue
Donnée chimique
Donnée analytique
Résultat d’analyse
Figure 1 : Les différentes étapes d’une analyse chimique
4
Réflexion sur l’étape de traitement des échantillons analytiques
• Cette étape n’est pas dissociable de la méthode d’analyse. Elle en fait partie.
• Le choix des conditions opératoires dépend :
- de l’analyte,
- de la matrice,
- de la méthode de mesure,
- du laboratoire.
-
• Elle apporte, en général, la majeure partie de l’erreur analytique (justesse, fidélité)
• Elle demande souvent de maîtriser à la fois un grand nombre de paramètres (ou facteurs)
===> En dehors du but immédiat (mise en solution, spéciation, concentration de traces …), cette étape pose le problème de la validation de la méthode
===> Elle est un handicap : majeure partie de l’erreur analytique
===> Mais aussi une aide : par une combinaison judicieuse des paramètres, on va pouvoir optimiser la méthode d’analyse (Un biais de méthode BM = 0 représente l’optimum)
• Elle représente bien souvent un facteur limitant en termes de :
- rapidité
- automatisation
===> On va chercher à réduire la durée de cette étape
(Exemple : méthode de Kjeldahl utilisant un système à micro-ondes focalisées)
===> On va rechercher des méthodes qui réduisent à un minimum le traitement de l’échantillon
(Exemples de la spectrométrie dans le proche infra-rouge par réflectance et de la RMN impulsionnelle basse résolution)
Dans ce cas, on devra extraire l’information chimique d’un signal analytique
(= réponse instrumentale) complexe.
===> On peut aussi appliquer directement à l’échantillon des méthodes de mesure spécifiques.
En fait, le choix d’une méthode de traitement de l’échantillon analytique constitue en tant que tel un problème de chimie analytique, comme le montre bien la figure 2 ci-après.
5
Figure 2 : Un problème de chimie analytique : le choix d’une méthode de traitement de l’échantillon analytique
6
2 - PERFORMANCES ET CRITERES DE CHOIX D’UNE METHOD E D’ANALYSE
Chaque méthode d’analyse possède un certain nombre de propriétés caractéristiques, critères qui
qualifient les performances de la méthode ; on va les examiner et les hiérarchiser en fonction du
problème posé, le premier objectif étant toujours d’obtenir une information pertinente au
moindre coût. On voit ainsi que le choix d’une méthode d’analyse constitue en tant que tel un
problème analytique qu’il va falloir résoudre en empruntant la démarche de l’analyticien, ce qui
veut dire bien poser le problème au départ et le traduire en termes d’analyse(s) qu’il faudra
réaliser.
Les premiers critères utilisés, souvent intuitivement, sont les limites de détection et/ou de
quantification, parfois le niveau critique ; ils seront calculés, comme on le verra ensuite, à partir
de la droite d’étalonnage :
- La limite de détection (LD) est la plus petite concentration fournissant un signal
significativement différent du blanc ; c’est la plus petite quantité d’analyte pouvant être
détectée dans l’échantillon mais pas nécessairement quantifiée. « Significativement
différent » veut dire qu’on choisit un certain niveau de probabilité : il est de 0,999 pour la
limite de détection standard (t1-α = 3), ce qui correspond à un risque de première espèce α
exactement égal à 0,13 % d’affirmer à tort que l’échantillon est différent du blanc ou, dit
autrement, qu’il contient l’analyte.
- Le niveau critique (NC) correspond à une concentration au-dessus de laquelle on accepte
un risque – c’est le risque de deuxième espèce β – de conclure que l’analyte est absent de
l’échantillon analysé, alors qu’il est effectivement présent. Comme standard, on prendra
ici aussi β = 0,13% (t1-β = 3).
On verra par la suite que les choix de α et β sont tels qu’en dessus du niveau critique standard,
on court un risque extrêmement faible de conclure à l’absence d’un analyte alors qu’il est
effectivement présent et inversement de conclure à la présence de l’analyte alors qu’il est absent.
Le risque est donc très faible d’obtenir des faux positifs (α) ou des faux négatifs (β).
On peut également remarquer, à propos du blanc, que :
- l’utilisation d’un blanc de réactifs, qui contient uniquement les réactifs et les solvants
utilisés pour la préparation des étalons ou la dilution des échantillons, permet d’accéder à
la LD de la méthode de mesure ;
7
- l’utilisation d’un blanc de matrice (blanc d’échantillon), c’est-à-dire d’un échantillon qui
ne contient pas l’analyte, permet d’évaluer la LD de la méthode d’analyse appliquée;
- avec un blanc analytique (blanc de méthode), qui contient tous les réactifs et est analysé
comme les échantillons, on sera en mesure de donner une LD caractéristique de la
méthode d’analyse
- La limite de quantification qu’on définit comme le niveau de mesure auquel la précision
de la mesure sera considérée comme satisfaisante pour une détermination quantitative ;
en d’autres termes, la limite de quantification est la concentration qui peut être
déterminée avec un coefficient de variation – appelé aussi déviation standard – et une
justesse acceptables. C’est en fait la limite à partir de laquelle le résultat sera donné avec
une probabilité considérée comme acceptable.
Il est bien évident qu’en tout premier lieu, une méthode ne pourra être choisie qu’à la condition
de pouvoir prendre des décisions ou de permettre d’effectuer des mesures aux niveaux de
concentration attendus. Il n’est pas obligatoire pour autant de toujours rechercher la limite de
détection ou de quantification la plus basse possible, ce qui supposerait un investissement plus
coûteux. Or on ne doit pas perdre de vue que le choix d’une méthode d’analyse est guidé par la
recherche d’un rapport coût sur bénéfice le plus petit possible.
En un deuxième temps, le choix d’une méthode d’analyse va conduire à examiner un autre
ensemble de critères : justesse et fidélité (répétabilité), exactitude, reproductibilité. On peut les
définir comme suit :
- La justesse représente l’étroitesse de l’accord entre la valeur moyenne obtenue à partir
d’une large série de résultats d’essais et la valeur conventionnellement vraie de
l’échantillon (la valeur de référence acceptée). La mesure de la justesse est exprimée en
termes de biais, celui-ci représentant la différence entre l’espérance mathématique des
résultats d’essais – c’est-à-dire la valeur « la plus » probable qu’on peut estimer à partir
des résultats obtenus – et la valeur de référence acceptée ;
- La fidélité représente l’étroitesse de l’accord entre des résultats d’essais indépendants
effectués sur différentes prises d’essais d’un même échantillon homogène. De façon plus
précise, la répétabilité – qui est un terme équivalent – représente l’étroitesse de l’accord
entre les résultats d’essais indépendants obtenus avec la même méthode, sur un même
échantillon homogène, dans le même laboratoire, par le même opérateur utilisant le
même matériel et dans un court intervalle de temps.
8
On a l’habitude d’illustrer les notions de justesse et de fidélité par l’exemple d’un tir sur cible,
représenté ici sur la figure 3. La différence entre un tir sur cible et une méthode d’analyse est
que, pour cette dernière, on ne connaît pas le centre de la cible : il faut l’estimer ; on verra
bientôt comment, lorsqu’on se propose de valider une méthode.
Il est intéressant de donner ici, dans le même ordre d’idée, la définition de deux critères
complémentaires :
- L’ exactitude qui va concerner un résultat seul et représente l’accord entre le résultat d’un
mesurage et la valeur vraie du mesurande. Cette notion est la combinaison d’une erreur
systématique, liée à la justesse de la méthode, et d’une composante aléatoire, liée à la
mesure elle-même et qui dépend donc de la fidélité de la méthode ;
- La reproductibilité qui, à la différence de la répétabilité, considère les résultats obtenus
avec une même méthode et sur un même échantillon homogène, mais dans des
laboratoires différents et par différents opérateurs utilisant différents équipements. Des
études collaboratives – encore appelées analyses inter-laboratoires ou circuits
Ni juste ni fidèle
Fidèle mais pas juste
Juste mais pas fidèle
Juste et fidèle
Figure 3 : Image des notions de justesse et de fidélité
9
d’analyses – permettent d’évaluer cette reproductibilité. On donnera aussi parfois un
sens restreint à cette notion de reproductibilité, en considérant par exemple, dans un
même laboratoire, différents opérateurs utilisant le même matériel … ou un même
opérateur qui exécute la même analyse mais à des dates très éloignées les unes des autres,
etc.
Il est bien évident que rechercher l’exactitude du résultat aura un certain coût :
- Pouvoir disposer d’une méthode juste demandera un investissement non négligeable pour
l’étudier, en vue de sa validation… ou alors on fera appel, si elle existe, à une méthode de
référence qui ne sera pas forcément la mieux adaptée à l’environnement du laboratoire, si
l’on doit en particulier effectuer de grandes séries d’analyses. Mais la justesse ne sera pas
forcément une nécessité, si l’on peut se contenter de valeurs relatives destinées à être
comparées entre elles dans le cadre d’une étude particulière menée au sein du laboratoire.
- De même, la répétabilité a un prix, qui se traduit le plus souvent dans l’achat de matériel
de précision et d’instruments de mesure plus sophistiqués. Or cette recherche de la
précision n’a souvent pour but que d’obtenir une variance attachée à la répétition des
analyses telle que les effets qu’on veut mettre en évidence ne soient pas masqués.
Au niveau des choix qui sont à faire, il faudra donc s’interroger sur le problème posé et par
conséquent sur les objectifs des analyses à réaliser.
D’autres critères pourront être pris en compte à leur tour :
- L’étendue du domaine de linéarité qui sera mis en face de la gamme des concentrations
attendues pour les échantillons à analyser. Si la méthode d’analyse choisie est en mesure
de couvrir cette gamme de concentrations, cela évitera d’effectuer des dilutions, ce qui
dispensera d’une opération supplémentaire.
- La sensibilité de la méthode qui représente la pente de la droite d’étalonnage ; si la
courbe d’étalonnage n’est pas une droite, la sensibilité à une concentration donnée sera
définie comme la pente de la tangente à la courbe à cette concentration. Il est clair que
plus la sensibilité sera élevée plus il sera facile de distinguer 2 échantillons de
concentration voisine. Il apparaît également qu’une augmentation de la sensibilité
permettra d’obtenir des limites de détection ou de quantification plus basses.
- La robustesse de la méthode caractérise le fait qu’une légère modification des conditions
expérimentales (un ou plusieurs paramètres) ne modifie que très peu la réponse mesurée.
Cette propriété est bien sûr très intéressante si plusieurs opérateurs doivent intervenir
10
pour réaliser une même série d’analyses ou si l’on ne dispose que d’opérateurs peu
expérimentés.
- La spécificité de la méthode d’analyse mérite une mention toute particulière, car elle
renseigne sur le fait que la réponse mesurée n’est pas perturbée par des espèces physico-
chimiques autres que l’analyte considéré. L’application d’une méthode d’analyse
spécifique n’exigera donc pas de prendre des précautions particulières si la matrice de
départ et par suite le milieu de mesure ont été modifiés. Si la méthode de mesure est elle-
même spécifique, il en résultera que l’étape préalable de traitement de l’échantillon sera
très allégée avec, en conséquence, un gain de temps considérable et une forte diminution
des causes d’erreurs.
- Or la rapidité de la méthode et son aptitude à l’automatisation représentent aussi 2
critères essentiels pour pouvoir diminuer si besoin le délai de réponse et, dans tous les
cas, augmenter la cadence des analyses, ce qui implique une diminution de leur coût.
En conclusion, le choix d’une méthode d’analyse exige de considérer l’ensemble des propriétés
qui la caractérisent et qui sont présentées en détail dans quelques ouvrages spécialisés (3) , autant
de critères qu’il faudra hiérarchiser en fonction du problème posé, le but étant d’optimiser
chaque fois le rapport coût sur bénéfice.
3 - VALIDATION D'UNE METHODE D’ANALYSE CHOISIE PAR LE LABORATOIRE
Tout laboratoire, en particulier lorsqu'il doit pratiquer de grandes séries d'analyses, va choisir, en
fonction des objectifs qui lui sont assignés et des moyens dont il dispose, sa propre méthode : ce
n'est pas forcément une méthode de référence ou la méthode qui serait éventuellement retenue
pour trancher, en cas de litige.
3.1 - Objectifs d'un laboratoire d'analyse
Pour choisir une méthode d’analyse, de nombreux critères devront être pris en compte, par
exemple le nombre et la cadence des analyses qu'on va effectuer, la capacité d'investissement du
(3) D.L Massart et al. (2003). Handbook of Chemometrics and Qualimetrics : Part A, 3rd ed., Elsevier, Amsterdam.
11
laboratoire et les moyens humains dont il dispose, mais le but essentiel sera toujours de produire
au moindre coût une donnée que personne ne puisse contester : un résultat d'analyse validé,
appelé donnée analytique.
Atteindre cet objectif nécessite, d'une part, de s'assurer de l'exactitude de la méthode choisie,
d'autre part, de réduire le nombre de répétitions des analyses destinées à produire une même
donnée. Dans ce but, on va préparer un échantillon de référence du laboratoire qui sera utilisé
tout d'abord pour étudier et valider la méthode puis, comme étalon, pour mettre en place un
système de contrôle interne de la qualité des analyses.
3.2 - Principales étapes d'une validation
3.2.1 - Préparation de l'échantillon de référence du laboratoire (ERL)
Cet échantillon doit représenter une "moyenne" des échantillons qui seront ultérieurement
reçus par le laboratoire en vue d’une analyse, moyenne en ce qui concerne la teneur de l'analyte
ou des analytes recherchés, moyenne aussi en ce qui concerne la composition de la matrice. S'il
s'agit par exemple de mesurer une pollution des sols par les métaux lourds, on préparera
l'échantillon de référence du laboratoire à partir d'un grand nombre d'échantillons prélevés sur
différents sites plus ou moins pollués, à différents horizons ; ils seront broyés et intimement
mélangés les uns aux autres pour obtenir un échantillon homogène, dont il faudra d'ailleurs tester
l'homogénéité. On s'assurera ensuite des conditions de conservation de cet échantillon pour qu'il
ne subisse pas de modifications dans l'espace (homogénéité) et dans le temps (contaminations,
réactions diverses, etc.).
3.2.2 - Estimation du biais de la méthode
Pour une méthode de référence qui est sensée donner le résultat juste T, on écrit qu'un résultat
d'analyse xi peut être modélisé sous la forme :
ii eTx +=
où e i représente l'aléa expérimental.
Il est bien évident qu'ayant choisi pour le laboratoire une méthode M différente de la méthode de
référence, elle ne permettra d'atteindre, en répétant les analyses, qu'une valeur TM qui contient
certes le résultat juste mais en même temps, peut être, un biais éventuel BM propre à la méthode.
Le modèle devient donc alors :
iMi eBTx ++= (TM = T + BM) (1)
12
Il est nécessaire d'évaluer ce biais pour l'éliminer si possible, ou du moins le corriger. En effet,
en cas de litige commercial, voire juridique, c'est une méthode de référence ou, à défaut, toute
autre méthode convenue entre les parties ou désignée par le tribunal qui sera réputée donner le
résultat juste et donc retenue pour trancher.
Ainsi, connaître une méthode, la valider, n'est pas seulement mesurer sa fidélité à travers une
estimation de l'écart-type, mais évaluer aussi sa justesse en appréciant son biais éventuel.
Le but de la validation ne sera pas ici, au moins dans un premier temps, de normaliser la
méthode choisie pour en faire une méthode de référence mais de s'assurer que les données
produites seront acceptées.
Comment évaluer le biais de sa méthode ? La première solution, immédiate si l'on dispose d'une
méthode de référence, est de répéter celle-ci sur ERL pour déterminer T. Puis on répète les
analyses avec la méthode M pour obtenir TM :. (TM - T) représente alors le biais de la méthode ; il
est nul si la méthode est juste.
S'il n'existe pas de méthode de référence, une autre façon de procéder est de se procurer un
matériau de référence certifié (MRC) auprès d'organismes tels que le NIST (National Institute of
Standards and Technology) aux USA ou le BCR (Bureau Communautaire de Référence) en
Europe. On va rechercher un MRC pour lequel il existe bien sûr une valeur certifiée de la teneur
en l'analyte qu'on souhaite déterminer, cette valeur théorique Tc – obtenue par consensus entre
un ensemble de laboratoires – étant considérée comme conventionnellement vraie. Mais le MRC
doit aussi présenter une matrice aussi proche que possible de ERL car on sait qu'un effet de
matrice peut venir perturber la mesure de l'analyte. Enfin, s'il existe plusieurs MRC possibles, on
choisira celui qu'on pense devoir être retenu en cas d'expertise. La recherche d'un MRC
convenable sera facilitée par l'utilisation de banques de données, comme par exemple la banque
COMAR développée en France par le BNM (Bureau National de Métrologie).
Ayant trouvé un MRC adapté, on lui applique n fois la méthode M pour déterminer une teneur
moyenne MT ainsi qu'une valeur estimée s2 de la variance. On va ensuite comparer MT à cT , par
un test de conformité, en calculant :
n
s
TTt
cM
obs2
−= (2)
13
On admettra, pour une probabilité choisie, que la méthode est juste si tobs est supérieur à une
certaine valeur α−1t , par exemple 1,96 pour une probabilité P = 1 - α de 0,95.
En l'absence d'une méthode de référence ou d'un matériau de référence certifié, il reste encore
possible de participer à une analyse inter-laboratoires qui utiliserait ERL ou un matériau de
même nature.
Et enfin, en cas d'impossibilité, il sera toujours possible d'appliquer à ERL différentes méthodes
d'analyse, de comparer les résultats entre eux et de les interpréter pour essayer de comprendre
laquelle de ces méthodes pourrait être considérée comme donnant un résultat juste ; c'est par
rapport à cette dernière qu'on mesurera le biais de la méthode M.
Si, à la suite de cette première étude, on constate que la méthode M choisie par le laboratoire
présente un biais, on va essayer de l'éliminer en procédant à une recherche systématique des
causes d'erreurs.
3.2.3 - Recherche des causes d'erreurs et corrections possibles
Cette recherche se fait dans l'ordre inverse de celui de la chronologie habituelle de l'analyse car
on va partir du milieu de mesure le plus simple pour aller au plus compliqué. En effet, on
s'intéresse tout d'abord, sur des étalons – le plus souvent des solutions étalons –, aux erreurs
qu'on peut commettre dans l'interprétation du signal analytique puis, sur le milieu de mesure –
dans la plupart des cas, une solution de mesure –, aux perturbations éventuelles du signal
analytique par des effets de matrice ; on s'intéresse enfin à l'erreur que peut apporter l'étape de
traitement de l'échantillon analytique.
En ce qui concerne le signal analytique, l'erreur la plus répandue lorsqu’on cherche à le convertir
en un résultat d’analyse, consiste à croire a priori qu'on se trouve dans le domaine de linéarité de
la méthode alors qu'on en est sorti. Il est classique, par exemple, en spectrométrie d'absorption
atomique, d'utiliser un étalon externe de concentration CE dont on mesure périodiquement le
signal SE pour calculer ensuite, par une simple règle de trois que propose tous les logiciels, la
concentration CM d'une solution de mesure donnant un signal SM :
E
EMM S
CSC .= (3)
14
Cette façon de faire suppose bien entendu qu'il existe une relation linéaire entre signal et
concentration. Or chacun sait que le domaine de linéarité de la méthode de mesure, peut être très
restreint, particulièrement dans le cas d'une atomisation électrothermique. Il s'agit donc en
premier lieu d'avoir parfaitement déterminé le domaine de linéarité de la méthode pour l'analyte
considéré.
C'est seulement après qu'on construit, dans ce domaine, la droite d'étalonnage ; ces deux
opérations sont réalisées successivement, indépendamment l’une de l’autre, car il est facile de
montrer que la meilleure détermination de la pente de la droite d'étalonnage passe par une
répétition des mesures mais à deux niveaux de concentration seulement, choisis aux bornes du
domaine de linéarité. Malheureusement on constate que, pour déterminer les paramètres a0 et a1
de la droite d'étalonnage S = a0 + a1C représentée sur la figure 5, on se contente trop souvent
d’effectuer une régression linéaire simple du signal analytique mesuré sur la concentration des
solutions étalons. Or il est connu qu'en effectuant une régression aux moindres carrés pour
calculer les coefficients a0 et a1 du modèle, la pente a1 de la droite étant par définition la
sensibilité de la méthode d'analyse dans son domaine de linéarité, la variance estimée de a1 est :
( )2
21
2
1
( )
rn
ii
ss a
C C=
=−∑
(4)
expression dans laquelle 2rs représente la variance résiduelle, Ci la concentration de la solution
étalon (i) et C la moyenne des concentrations des solutions utilisées. Si Si représente le signal
analytique mesuré pour la concentration Ci et $ iS la valeur prédite par le modèle, c'est-à-dire par
la droite d'étalonnage, pour la même concentration :
2
2 1
ˆ( )
2
n
i ii
r
S Ss
n=
−=
−
∑ (5)
On voit bien sur la formule (4) que, pour diminuer la variance sur l'estimation de1a , il faut rendre
le plus grand possible le dénominateur, ce qui veut dire choisir iC le plus éloigné possible de C ;
C représentant le centre du domaine de linéarité (la valeur moyenne desiC ), on aura donc
intérêt à choisir des concentrations situées aux bornes de ce même domaine. Cela peut être aussi
démontré de façon plus générale, lorsqu’on s’intéresse à l'organisation optimale de la collecte
des données.
15
En ce qui concerne maintenant le milieu de mesure, qui contient non seulement l'analyte dont on
veut déterminer la concentration mais aussi de nombreuses autres espèces physico-chimiques
provenant de la matrice, on va essayer de contrôler dans quelle mesure ces espèces peuvent
perturber le signal analytique, puis essayer de s'affranchir, autant que se peut, de ces effets de
matrice. A cette fin, on fait souvent appel à la méthode des ajouts dosés. La figure 4 illustre son
principe.
.
Figure 4 : Méthode des ajouts dosés
Droite d'étalonnage établie à partir de 2 solutions étalons ( 0 1S a a C= + )
Droite d'étalonnage qui serait obtenue en présence d'une ou plusieurs espèces physico-chimiques exaltant le signal donné par l'analyte seul
Droite d'ajout
Droite d'étalonnage qui devrait être obtenue si aux interférences spécifiques (effet multiplicatif) s'ajoutent des interférences non spécifiques (effet additif)
Il est connu que certaines espèces physico-chimiques présentes dans une solution de mesure en
même temps que l'analyte considéré peuvent perturber le signal donné par l'analyte lorsqu'il se
trouve seul dans une solution synthétique (= solution étalon), en l'augmentant ou en le diminuant,
� �
τr
ρr
0C ajC Concentration
Signal analytique
0
Réponse linéaire à la
concentration
Domaine de linéarité de la méthode de mesure
2(D )
1(D ) 3(D )
4(D ) �
�
�
�
1(D )
2(D )
3(D )
4(D )
16
ce qui correspond à un changement de sensibilité de la méthode. C'est par exemple le cas en
spectrométrie d'absorption atomique où certaines espèces vont augmenter (effet d'exaltation) ou
diminuer (effet de dépression) le rendement d'atomisation par des interférences chimiques. C'est
également le cas sur des spectres électroniques (spectrométrie UV/Visible) où la présence de
certains groupements fonctionnels va augmenter (effet hyperchrome) ou diminuer (effet
hypochrome) le signal étudié ; ou encore en fluorimétrie avec l'effet de "quenching". Dans ces
conditions, la droite d'étalonnage 1(D ) de la figure 2, établie à partir de deux solutions
synthétiques, ne peut être utilisée en vue du dosage de l'analyte dans le milieu de mesure qui a
été obtenu après traitement de l'échantillon analytique : il faudrait pouvoir se rapporter à une
droite d'étalonnage 2(D ) construite pour l'analyte considéré dans son milieu de mesure. C'est ce
que propose de réaliser la méthode des ajouts dosés. En quoi consiste-t-elle ? On va tout d'abord
mesurer le signal analytique sur le milieu de mesure et, comme il n'est pas possible d'en déduire
une concentration, l'étalonnage n'ayant pas été réalisé sur ce milieu, on va conventionnellement
porter la valeur du signal obtenu sur l'axe des ordonnées. Puis on ajoute au même milieu une
concentration connue de l'analyte: en fait, on ajoute à la solution de mesure une quantité connue
de l'analyte qui, après correction de volume, devient une concentration connuea jC . Après cet
ajout, on mesure de nouveau le signal analytique en s'assurant bien qu'il reste inférieur au signal
le plus élevé mesuré pour 1(D ) dans le domaine de linéarité. La concentration d'ajout étant
connue, on peut alors représenter le deuxième point de la droite d'étalonnage 3(D ) qui
correspond au milieu de mesure. Cette droite est parallèle à 2(D ) et, par extrapolation, à la
condition que la droite d'étalonnage passe par l'origine, elle permet d'accéder à oC qui représente
la concentration de l'analyte dans son milieu de mesure. Il va de soi que, pour réduire l'intervalle
de confiance deoC , il faut répéter les mesures sur le milieu de mesure seul, ainsi que sur ce
milieu après ajout.
Cette méthode est simple mais elle ne permet de maîtriser qu'une modification de la sensibilité
de la méthode, c’est-à-dire seulement un changement de pente de la droite d'étalonnage traduit
par la rotationρr . Elle ne prend en compte qu'un effet de matrice dit "multiplicatif" ou, dit d'une
autre manière, des "interférences spécifiques". La méthode d'analyse n'est réellement corrigée
que si, en l'absence de l'analyte considéré, le signal analytique du milieu de mesure est nul.
Autrement dit, il ne faut pas que le milieu de mesure sans l'analyte donne une réponse qui
correspondrait à un effet de matrice "additif", au fait qu'on est en présence d'interférences
appelées "non spécifiques". C'est fréquemment le cas, par exemple, en spectrométrie d'émission
17
atomique où l'on doit tenir compte des nombreuses interférences spectrales. Ce type
d'interférences correspond de fait à une translationτr de la droite d'étalonnage et il faudrait qu'on
puisse déterminer la droite 4(D ) pour pouvoir effectuer le dosage de l'analyte sans erreur de
justesse ! Il est malheureusement difficile d'atteindre cet objectif, même si certaines solutions ont
été proposées (Ducauze et al.)(4).
Pour mieux comprendre ce problème il suffit de poser un modèle d'étalonnage simple qui prend
en compte les interférences, c'est-à-dire les interactions. Si l'on se place dans le domaine de
linéarité de la méthode d'analyse, il est facile d'admettre qu'on va s'appuyer sur un modèle
linéaire et qu'on pourra se contenter de ne considérer que les interactions du premier ordre. Nous
écrirons donc ce modèle sous la forme :
1
01 2 1
p p p
i i ij i ji j i
S a a C a C C−
= = =
= + +∑ ∑∑ (6)
Ici, oa représente le signal du blanc, par exemple le solvant,
ia , la sensibilité de la méthode à l'espèce (i) qui se trouve dans le milieu de mesure à la
concentration iC
ija , l'interférence de chaque espèce (j) avec chaque espèce (i)
Si l'on veut doser par exemple l'espèce (1), on écrit que le signal analytique mesuré est :
Si l'on veut doser par exemple l'espèce (1), on écrit que le signal analytique mesuré est :
1
0 1 1 12 2 3 2
p p p p
j j i i ij i jj i j i
S a a a C C a C a C C−
= = = =
= + + + +
∑ ∑ ∑∑ (7)
= f (Ci) = ρ→
= B(Ci,Cj) = τ→
(4) Ducauze C.J., Bermond A. – Application of the Standard Additions Method to the Determination of Specific and
non-Specific Absorption in Atomic Absorption Spectrometry – Analusis, 1992, 20, 493-495.
18
On voit apparaître un terme ( )jf C qui s'ajoute à 1a et modifie donc la pente de la droite
d'étalonnage (effet multiplicatif) et un terme B qui représente la réponse de la matrice en
l'absence de l'analyte considéré (effet additif). Si l'on néglige dans ce dernier terme l’interaction,
il est possible d'accéder à la concentration 1C de l'analyte, ainsi qu'aux deux effets multiplicatif et
additif en combinant une méthode d'ajouts dosés et une méthode de dilution. Pour simplifier, en
supposant que le blanc est nul (0a = 0), on peut écrire le modèle précédent sous la forme suivante
:
( ) ( )1 1 1j iS a f C C B C = + + (8)
Soit BCaS +′= 111 (9)
Avec l'hypothèse que nous avons faite – on néglige les interactions dans le terme B – il apparaît
immédiatement qu'en diluant l'échantillon analytique n fois :
n
Cf
n
Cf jj )(
=
et n
CB
n
CB ii )(=
Si l'on mesure le signal analytique2S après dilution :
( ) ( )n
CB
n
C
n
CfaS ij +
+= 1
12 (10)
Soit n
B
n
CaS +′′= 1
12 (11)
En résolvant alors le système des deux équations (9) et (11), on trouve :
[ ] [ ]11211 / aanSSC ′−′′−= (12)
" ' ' "1 1 1 2 1 1/B a S na S a a = − − (13)
Pour déterminer '1a et "
1a , il suffira d'appliquer la méthode des ajouts dosés à l'échantillon
analytique puis à ce même échantillon dilué n fois.
19
3.2.4 - Optimisation (= mise au point) de la méthode en vue d'éliminer son biais
Après avoir maîtrisé, du moins en partie, les causes d'erreurs de la méthode d'analyse M, on va
l'appliquer de nouveau à l'échantillon de référence du laboratoire (ERL) pour vérifier si son biais
MB a été effectivement diminué, voire supprimé.
Si un biais existe toujours, on va essayer de l'éliminer par un meilleur choix des conditions de
traitement de l'échantillon analytique. En effet, ce traitement de l'échantillon fait intervenir un
nombre de facteurs suffisamment élevé pour qu'on puisse, en combinant de façon optimale les
niveaux auxquels on les fixe, espérer atteindre MB = 0, c'est-à-dire éliminer le biais de la
méthode choisie. Le nombre de facteurs qui influent sur la réponse mesurée étant important, on a
tout à fait intérêt, pour cette mise au point de la méthode, à s'appuyer sur un plan d'expériences.
Il convient de préciser ici que cette optimisation sera conduite sur ERL pour lequel on aura fixé
une valeur cible de l'analyte : la valeur que fournit la méthode de référence appliquée à cet
échantillon ou une valeur corrigée, connaissant le biais estimé à partir des mesures effectuées sur
le matériau de référence à teneur certifiée MRC.
Si tous les efforts consentis sont restés vains quant à l'élimination du biais de la méthode, il reste
encore possible de calculer un facteur correctif, à différentes concentrations du domaine de
linéarité.
Le biais ayant été éliminé ou ainsi corrigé et l'analyse ayant été répétée un nombre suffisant de
fois sur ERL au moyen de la méthode M pour connaître sa fidélité, à travers une estimation de
l'écart-type, on est dès lors en mesure d'affirmer que cette méthode produit des données non
contestables en termes de justesse et d'intervalle de confiance. On est également capable, en
utilisant ERL, de construire une carte de contrôle qui permettra de s'assurer de son bon
fonctionnement au cours d'une série d'analyses. Il est toutefois préférable, avant de valider la
méthode d'analyse mise au point et de la mettre en œuvre, d'en reprendre l'étude de façon plus
approfondie, pour mieux apprécier ses performances, au moyen de différents paramètres
statistiques, et mieux maîtriser ainsi son contrôle de qualité.
4 - ETUDE DE LA MÉTHODE D'ANALYSE VALIDEE
Les conditions expérimentales ont été précédemment fixées lors de la mise au point de la
méthode : on est en mesure de la décrire, d'écrire sa procédure d'application.
20
Dans les conditions choisies, il est maintenant possible, en appliquant la méthode à l'Echantillon
de Référence du Laboratoire, de mieux préciser l’ensemble des critères qui la caractérisent. On
va surtout compléter les informations résultant de son étalonnage.
4.1 - Etude de la réponse sur des solutions étalons
Comme on l’a dit précédemment (§1.2.3), on effectue, avant l'étalonnage proprement dit, une
recherche du domaine de linéarité de la méthode d'analyse : on applique l'ensemble des
opérations prévues dans la procédure écrite à différents étalons (différentes concentrations de
l'analyte dans une matrice, par exemple un solvant, qui donne une réponse nulle à la méthode),
pour rechercher le domaine dans lequel le signal analytique iS mesuré pour une concentration
iC , est de la forme : 0 1i i iS a a C e= + + , ie représentant l'aléa expérimental.
Pourquoi souhaite-t-on à tout prix disposer d'une méthode dont la réponse est linéaire à la
concentration ? On peut le justifier d’un point de vue théorique, en s’appuyant sur le fait que la
régression linéaire permet une détermination des paramètres de la droite plus précise que celle
des paramètres d'une courbe, obtenus par une régression non linéaire ; on peut dire aussi qu'il est
plus facile de calculer une concentration à partir du signal, si le modèle de la réponse est linéaire.
L'exemple de la loi de Beer-Lambert illustre bien cette volonté :
Pourquoi écrire : 0logI
D ClI
ε= = , au lieu de : 0ClI I e ε−= ? Parce que, dans la première
expression, la densité optique D est linéaire à la concentration de la solution.
Des algorithmes ont été proposés pour déterminer le domaine de linéarité en un minimum
d'essais (D.N. Rutledge et al.(5); M. Feinberg(6)).
Il est certes possible de les utiliser mais l'essentiel est de s'assurer surtout que la méthode donne
une réponse linéaire pour la gamme de concentrations des échantillons à doser ultérieurement.
Il n'est pas davantage nécessaire de faire appel à des tests statistiques pour déterminer avec
précision la concentration à partir de laquelle on peut affirmer être sorti du domaine de linéarité :
une représentation graphique suffit pour se faire une opinion ; on pourrait aussi considérer
comment se comporte le coefficient de corrélation de la régression, lorsqu'on augmente peu à
peu le nombre de points pris en compte vers les concentrations les plus élevées.
(5) Rutledge D.N., Ducauze C.J. – An iterative method for determining the linear zone of a detector response. –
Chem. and Intell. Lab. Systems, 1991, 12, 15-19. (6) Feinberg M. – La validation des méthodes d'analyse. – Masson, Paris, 1996.
21
C'est dans ce domaine de linéarité qu'on va construire ensuite la droite d'étalonnage (figure 5) :
comme on l'a déjà dit, la mesure doit être alors répétée pour 2 étalons dont les concentrations se
situent aux bornes du domaine. On effectue au moins 20, ou mieux 30 répétitions pour chacune
de ces deux concentrations ; partant des résultats ainsi obtenus, on effectue une régression
linéaire simple selon le critère des moindres carrés qui permet d'estimer sans difficulté les
coefficients du modèle, c'est-à-dire oa – qui est la réponse du blanc analytique (blanc de la
méthode d'analyse) – et 1a qui est la pente de la droite, la sensibilité 1a de la méthode d'analyse
dans son domaine de linéarité.
Figure 5 : Droite d'étalonnage de la méthode de mesure
Cette régression fournit également, comme on l'a déjà vu, une estimation de la variance
résiduelle 2rs (5) et de la variance
1
2as de 1a (4). On peut également calculer une estimation de la
variance du blanc analytique 0a :
( )0
22 2
2
1
1a r n
ii
Cs s
nC C
=
= +
−
∑ (14)
0a
iS ˆiS
1a
iC
0 Domaine de linéarité Concentration C
Réponse de la méthode (S) = Signal analytique mesuré
iS = réponse mesurée
ˆiS = réponse prédite à
partir du modèle ∆
∆
22
Si l'étalonnage est effectivement réalisé, comme on l’a indiqué, par n mesures au total, avec 2
n
mesures à chacune des bornes du domaine de linéarité, soit 2
n mesures 1≤ i ≤
2
npour le blanc
analytique ( 0C = 0) et 2
n mesures ( ni
n ≤≤+12
) à la concentration la plus élevée 1C , il est alors
facile de montrer que :
$( ) ( ) ( ) ( )2
2
12 1 1 1
2 2
n n n
ii i i ii i i
r
S S S S a C C S Ss
n n= = =
− − − − −= =
− −
∑ ∑ ∑
prend la forme :
( ) ( ) ( )/ 2
2 1 1
2 1 1 / 2 12
2
n n n
i i ii i i n
r
a CS S S S S S
sn
= = = +
− − − − − =
−
∑ ∑ ∑ (15)
Dans ces conditions, on montre également que 21as et 2
0as deviennent :
1
22
21
4 ra
ss
nC= (16)
0
2 2 1
4a r
ns s
n = +
(17)
Il est dès lors possible, partant de 0a et 1a , qui sont les estimations respectives de 0a et 1a , de
calculer un intervalle de confiance du blanc analytique 0a et de la sensibilité 1a de la méthode de
mesure :
0 00 0 01 , 1 ,2 2
ˆ ˆa aa t s a a t sα αν ν− −− ≤ ≤ +
1 11 1 11 , 1 ,2 2
ˆ ˆa aa t s a a t sα αν ν− −− ≤ ≤ +
Ici, 2−=ν n représente le nombre de degrés de liberté.
23
C'est à partir du blanc analytique qu'on va définir un autre paramètre statistique important : la
limite de détection de la méthode.
Définir cette limite de détection (LD) revient à tester l'hypothèse (hypothèse nulle =0H ) d'égalité
de la réponse LDS à celle du blanc analytique 0a , soit :
0 0: LDH S a=
On va choisir un risque – le risque de première espèce α – qui est d'accepter l'hypothèse
alternative 1H , c'est-à-dire d'affirmer que la solution analysée renferme l'analyte alors qu'il est
absent ou, ce qui revient au même, d'affirmer à tort que le signal analytique est différent du blanc
analytique 0a . La probabilité de rejeter à tort l'hypothèse nulle est donc P = 1 - α
Avec ce choix, la réponse correspondant à la limite de détection est :
00 1 ,LD aS a t sα ν−= + (18)
et le seuil de détection, exprimé en une unité de concentration :
1
LDLD
SC
a= (19)
L'hypothèse alternative à l'hypothèse nulle 0H est :
1 0: LDH S a⟩
On choisit un risque – le risque de deuxième espèce β – qui est de rejeter à tort cette hypothèse,
en acceptant donc l'hypothèse nulle. Ceci veut dire qu'on prend le risque β d'affirmer à tort que la
solution analysée ne contient pas l'analyte, alors qu'il est effectivement présent ; on affirme donc
à tort que le signal enregistré n'est pas différent de celui du blanc analytique 0a . La probabilité
d'accepter à tort l'hypothèse nulle est donc P = 1-β
Au risque β est associé le concept de niveau critique NC qui correspond à une réponse :
0 00 1 ,1 , 1 ,( )LD a aNCS S t s a t t sα νβ ν β ν−− −= + = + + (20)
et à une concentration :
1
NCNC
SC
a= (21)
24
La figure 6 donne une représentation synthétique de ces paramètres statistiques.
Figure 6 : Représentation de la limite de détection et du niveau critique
Il est à noter qu'on a choisi 1 ,t α υ− et 1 ,t β υ− , comme valeurs de la variable t de Student. Ce choix
résulte du fait que, d'une part, le nombre de degrés de liberté de la régression est 2−=ν n ,
d'autre part, le test de rejet de l'hypothèse est unilatéral : la concentration ne peut pas prendre des
valeurs négatives (d'où :1t α− ) et on ne s'intéresse qu'aux valeurs de la réponse supérieures au
blanc (d'où :1t β− ).
On notera enfin qu'ayant réalisé un nombre de mesures suffisant pour l'étalonnage (n>20), on
peut admettre que 1 1 3t tα β− −= = et simplifier de ce fait le calcul de la limite de détection (19) et
du niveau critique (21), en écrivant :
00
1
3 aLD
a sC
a
+= (22)
00
1
6 aNC
a sC
a
+= (23)
1a
0.01β = (P = 99%)
Signal
Concentration
NCS
LDS
LDC
NCC Limite de détection
Niveau critique
0a 0.01α =
(P = 99%)
25
4.2 - Etalonnage de la méthode d’analyse
Tels qu’on les a définis, la limite de détection LDC et le niveau critique NCC représentent les
concentrations à partir desquelles on peut affirmer, pour une probabilité donnée, qu’il y a
présence (P = 1 - α ) ou absence (P = 1 -β ) de l'analyte considéré dans un milieu qui ne donne
théoriquement pas de réponse à la méthode. L'étude qu’on vient de faire sur des solutions étalons
prend en compte les pertes ou les contaminations résultant de la méthode d'analyse elle-même,
en particulier lors de l'étape de traitement de l'échantillon. Mais, dans cette approche, les effets
de matrice ont été volontairement négligés : on n'a pas pris en compte, en particulier dans le
calcul de la limite de détection et du niveau critique, la perturbation du signal analytique par un
effet multiplicatif (interférences spécifiques) ou un effet additif (interférences non spécifiques) ;
on risquerait ainsi, dans ce dernier cas, d'être amené à conclure à la présence de l'analyte alors
que le signal analytique provient d'autres espèces physico-chimiques contenues dans la matrice.
L'étalonnage doit donc être réalisé sur la matrice elle-même.
Pour pouvoir opérer ici comme dans l’étude précédente, il faudrait qu'on puisse disposer d'un
blanc d’échantillon ( 0C = 0), c'est-à-dire d'un échantillon dont l'analyte recherché est absent ; on
parle aussi de blanc de matrice. Ce sera le cas si l'on peut disposer par exemple d'une matrice qui
donne un signal analytiquebla identique au blanc analytique0a . On pourra tester cette hypothèse
au moyen d'un test d'égalité des moyennes comme le test de Student.
On répète 20 fois au moins l'analyse de ce blanc d’échantillon, puis sur le blanc auquel a été
ajoutée une concentration connue de l'analyte pour se placer à l'autre borne du domaine de
linéarité, en veillant à ce que le signal analytique enregistré reste bien dans ce domaine, défini
lors de l'étude de la réponse de l'analyte en milieu synthétique. On vérifiera que l'échantillon de
référence du laboratoire (ERL) vient se placer sur la droite d'étalonnage. S'il n'est pas possible de
se procurer un blanc de matrice, les 2 niveaux de concentrations nécessaires à l'étalonnage
pourront être obtenus à partir de 2 échantillons dont les concentrations en l'analyte sont aussi
éloignées que possible, en vérifiant qu'on reste bien dans le domaine de linéarité de la méthode et
que ERL donne un signal analytique en accord avec l'étalonnage réalisé. C'est là une autre façon
de s'assurer de la linéarité de la réponse à la concentration de l'analyte dans la matrice.
Ayant réalisé cet étalonnage sur la matrice, on est alors en mesure de calculer, par une régression
linéaire simple aux moindres carrés, la sensibilité 1a′ de la méthode, la réponse bla du blanc et
une estimation bls de son écart-type. C'est à partir de ces paramètres qu'on définira une limite de
26
détection, un niveau critique et une limite de quantification (LQ) de la méthode en vue de son
application :
1
3b l b lL D
a sC
a
+=′ (24)
1
6b l b lN C
a sC
a
+=′
(25)
1
1 0b l b lL Q
a sC
a
+=′ (26)
Ces formules supposent qu'on a répété au moins 20 fois, voire 30 fois l'analyse sur les 2
échantillons retenus pour l'étalonnage. Il faut aussi noter que la limite de quantification
correspond à la plus petite concentration qu'on peut quantifier, en étant sûr qu'elle est différente
du blanc. C'est enfin 1a′ qui sera utilisé pour convertir le signal analytique en une concentration
pour les échantillons qu'on doit analyser par la suite.
Un autre paramètre important, pour pouvoir mettre en place un contrôle de la qualité des
analyses, est la répétabilité de la méthode qu'on peut mesurer au moyen d'une estimation de
l'écart-type : ERLs est calculé à partir des n résultats d'analyse (n>30) obtenus pour ERL. La
moyenne de ces résultats, ERLC , exprime la teneur de l'analyte dans ERL.
A ce stade, il n'est pas besoin d'aller plus loin pour caractériser la méthode. On a la capacité,
connaissant la sensibilité dans le domaine de linéarité, d'analyser un échantillon ; connaissant bla
et bls , d'affirmer ou de nier la présence de l'analyte dans un échantillon ; enfin, connaissant sa
répétabilité exprimée à travers une estimation de l'écart-type s, de mettre en plan un contrôle de
la qualité des analyses. C'est ce qui sera abordé dans le point suivant.
Un certain nombre de paramètres caractérisant la méthode ont été définis : justesse, fidélité (ou
répétabilité), domaine de linéarité, sensibilité, limite de détection, niveau critique, limite de
quantification. Il en existe d'autres, comme la reproductibilité, la spécificité, la rapidité.
27
5 - CONTRÔLE PAR LE LABORATOIRE DE LA QUALITE DE SE S ANALYSES
L'objectif visé est de pouvoir fournir une donnée, c'est-à-dire un résultat validé, sans avoir à
répéter l'analyse. Cet objectif peut être atteint à présent car on maîtrise suffisamment la méthode,
à travers les paramètres statistiques qui la caractérisent : on a maintenant la capacité de mettre les
analyses sous contrôle statistique en construisant une carte de contrôle. Ce contrôle va consister
à s'assurer périodiquement du bon fonctionnement de la méthode d'analyse, en vérifiant qu'elle
donne un résultat juste pour l'échantillon de référence du laboratoire (ERL).
On a déterminé la concentration ERLC de l'analyte dans ERL et calculé à partir des mesures une
estimation de l'écart-type ERLs .
On peut donc prévoir que chaque fois qu'on effectue l'analyse sur ERL, le résultat trouvé doit
être théoriquement compris dans l'intervalle
1 , 1 ,2 2
,E R L E R L E R L E R LC t s C t sα αν ν− −
− +
n étant le nombre de mesures réalisées pour déterminer ERLC , 1nν = −
On choisit 2 valeurs du risqueα , correspondant à des probabilités P = 1 - α égales à 0,999 et
0,977, les valeurs du t de Student étant alors respectivement égales à 3 et 2.
On va ainsi définir, comme il est montré sur la figure 7, 2 bandes qui encadrent la valeur cible
ERLC : pour t = 3, les bornes inférieure et supérieure de la bande, LCI et LCS, sont appelées
limites de contrôle ; pour t = 2 on parlera de limites de surveillance (LSI et LSS) ou encore de
seuils d'alarme.
On reporte sur la carte de contrôle les résultats des analyses effectuées sur ERL (�). Tant que ce
résultat reste compris entre les limites de surveillance, on admet que la méthode fonctionne bien,
qu'elle fournit un résultat juste, et, entre deux contrôles satisfaisants, on peut valider les résultats
d'une série d'analyses réalisées sur les échantillons fournis au laboratoire.
28
Figure 7: Exemple d'une carte de contrôle
Quelle décision prendre maintenant si le résultat du contrôle sort des limites de surveillance,
comme indiqué en � ou �, tout en restant à l'intérieur des limites de contrôle ? Il ne faut pas
oublier ici qu'il s'agit d'un contrôle statistique, que la carte de contrôle a été établie au moyen de
paramètres statistiques. Dans une telle situation, le résultat peut donc être interprété de deux
façons différentes : ou bien la méthode d'analyse ne fournit plus un résultat juste, ou bien c'est la
seule analyse � ou � qui, de façon fortuite, a produit un résultat isolé très éloigné de la valeur
cible ; il faut en effet penser que le risque est ici 1 - 0,977 = 0,23, soit 2,3 %, de rejeter le résultat
alors qu'il fait partie de la population, c'est-à-dire qu'il exprime bien la concentration en l'analyte
de l'échantillon de référence du laboratoire ou, autrement dit encore, que la méthode d'analyse a
fonctionné correctement. Pour trancher entre ces deux hypothèses le mieux est d'effectuer
immédiatement une nouvelle analyse sur ERL dès qu'on a obtenu un résultat du type � ou �.
3ERL ERLC s+
2ERL ERLC s+
2ERL ERLC s−
3ERL ERLC s−
(LCS)
(LSS)
(LSI)
(valeur cible)
(LCI)
ERLC
arrêt des analyses et correction de la méthode
arrêt / correction
�
�
�
�
�
� �
� �
�
�
�
� � �
�
�
� �
�
�
�
� �
�
�
� �
�
29
On voit, sur la figure 7, que dans le cas de �, c'est la deuxième hypothèse qu'il faudrait retenir,
cette valeur n'étant qu'accidentelle ; on validerait donc les résultats des analyses ayant précédé
�. Par contre, dans le cas de �, on va conclure que la méthode d'analyse ne donne plus un
résultat correct puisque, répétée deux fois sur ERL, elle a donné chaque fois une valeur qui sort
des limites de surveillance ; on observe d'ailleurs qu'avant de se trouver dans cette situation, une
dérive vers des valeurs élevées s'était produite. L'observation d'une telle dérive permet
d'envisager aussi une action préventive de correction de la méthode, au lieu d'être contraint à
effectuer une action curative. Dans ce deuxième cas �, on va décider d'interrompre les analyses
et de procéder à la correction nécessaire de la méthode : s'agit-il d'une pollution du laboratoire ?
d'un problème instrumental ? On ne reprendra les analyses qu'après avoir résolu ce problème ; on
recommencera en particulier la série d'analyses qui a précédé � en vue de valider les résultats.
Si le résultat du contrôle sur ERL sort des limites de contrôle, comme�, la décision à prendre est
alors immédiate : on arrête les analyses pour corriger la méthode. Après s'être assuré qu'elle
fonctionne correctement de nouveau, on pourra recommencer les analyses ; on refera aussi la
série d'analyses effectuée juste avant la décision d'arrêt et dont les résultats n'ont pas pu être
validés.
On perçoit bien que cette façon d'opérer réduit considérablement le nombre des analyses à faire
pour fournir une donnée, c'est-à-dire un résultat d'analyse validé, mais le prix à payer au
préalable a été celui d’une validation et d’une étude approfondie de la méthode. Ce coût
comprend cependant une assurance de la justesse de la méthode d'analyse choisie.
30
6 - CONCLUSIONS PRATIQUES
Un premier enseignement peut être tiré de l'étude des cartes de contrôle : on s'aperçoit, quelle
que soit la méthode d'analyse pratiquée, qu'en règle générale, l'amplitude des variations
observées lors des contrôles autour de la valeur cible a tendance à diminuer. Cela veut dire que la
dispersion des résultats sur la teneur de l'analyte dans ERL diminue. Par conséquent, la pratique
qu'on a d'une analyse améliore la qualité des résultats obtenus du point de vue de leur
répétabilité.
De plus, on constate que valider une méthode permet de s'assurer de sa justesse. Même si
l'investissement qu'il a fallu consentir est important, il n'y a pas d'autre moyen de faire et un
laboratoire quel qu'il soit, quels que soient ses moyens matériel et intellectuel, ne peut prétendre
donner un résultat juste s'il n'est pas passé par cette étape de validation.
Mais l'investissement de départ n'est acceptable que si l'on doit exécuter par la suite un grand
nombre d'analyses. L'honnêteté consiste à prévenir celui qui demande une analyse que, même si
l'on a un degré d'expertise reconnu pour une méthode d'analyse, le seul fait de changer de
matrice peut se répercuter sur la justesse des résultats et qu'on ne peut donc échapper à l'étape
coûteuse de validation de la méthode. Sinon il faudrait, pour donner un résultat juste, faire appel,
lorsqu'elle existe, à une méthode de référence qu'on n'a pas l'habitude de pratiquer, ce qui
impliquerait alors une assez mauvaise répétabilité des résultats obtenus.
Mieux vaut donc confier l'analyse à un laboratoire qui a l'habitude de la faire que de se fier,
comme c'est parfois le cas, à un laboratoire dont l'expertise est reconnue dans la connaissance et
la pratique d'une méthode de mesure.
Recommended