Avec la mise en place des systèmes d’assurance qualité dans les laboratoires, la validation des méthodes d’analyse est aujourd’hui un objectif important. Elle est souvent perçue comme une contrainte car elle fait appel à des démarches statistiques mal maîtrisées par les analystes. Il faut regretter cette attitude car, le laboratoire a tout à gagner en utilisant des méthodes qui fournissent des résultats dans lesquels leurs « clients » peuvent avoir confiance. C’est une conséquence du passage de méthodes d’analyse qualitatives à des méthodes quantitatives. Ainsi, trop souvent on associe l’achat d’un nouvel appareil plus « performant » à un progrès, sans se soucier si cette performance est réelle au niveau du rendu du résultat.
C’est pourquoi, il existe encore de nombreuses zones d’ombre dans la définition, et en conséquence l’évaluation, des critères de performance des méthodes. Le meilleur exemple est celui de la limite de détection qui est abondamment employé (en particulier par les constructeurs d’appareils) alors qu’il existe plusieurs dizaines de mode de calcul qui conduisent tous sur des valeurs diffé- rentes. Ces critères soulèvent aussi des problèmes statistiques complexes qui n’ont pas toujours reçu de solutions satisfaisantes. C’est aux analystes qu’il incombe de poser correctement ces questions afin d’obtenir des réponses claires. C’est pourquoi, nous pensons que la normalisation des modes de calcul des critères de validation des méthodes représente une approche qui, à l’heure actuelle, permettra de mieux poser ces problèmes.