Morgan GERMA

  • Article de bases documentaires : Fiche pratique : 1412
    Déterminer un modèle qui s’ajuste au plus près des données observées

    Bien souvent négligée, l’erreur dans la spécification d’une fonction de mesure (nommée souvent « modèle ») peut avoir un effet significatif sur les résultats d’une méthode de mesure. La modélisation, étape clef de l’étalonnage, ne se limite pas à l’estimation ponctuelle des paramètres de la fonction de mesure choisie (coefficients du modèle). Elle doit aussi évaluer les incertitudes sur les paramètres de cette fonction afin d’estimer la part d’incertitude qui lui est due dans l’expression d’un résultat de mesure. Cette incertitude est qualifiée par abus « d’incertitude de modélisation ». Cette fiche aborde les mécanismes à l’œuvre lorsque l’on réalise une régression linéaire et vous amène à réfléchir quant au choix de votre modèle.

  • Article de bases documentaires : Fiche pratique : 1414
    Initiation à l’analyse de variances

    Lorsqu’il est nécessaire de comparer deux populations, on utilise généralement le test de Student. Mais au-delà de deux populations, c’est au test de Fisher que l’on fait appel. Dans ce test, on divise la variance S² « factorielle » par la variance S² « résiduelle ». La variance factorielle correspond à la dispersion obtenue en faisant varier le facteur étudié (par exemple : 3 opérateurs / intersérie). La variance résiduelle correspond généralement à la dispersion des résultats obtenue sous condition de répétabilité (par exemple : 10 mesures / intrasérie). Ainsi, en faisant le rapport des deux variances (S²factorielle/S²résiduelle), on cherche à démontrer que ce rapport est :

    • non significatif, ce qui indique que changer d’opérateur n’a pas plus d’impact sur le résultat que répéter dix fois la mesure ;
    • significatif, ce qui indique que changer d’opérateur a un impact sur le résultat.

    Dans cette fiche, on fera une présentation de divers plans d’expériences, base de l’étude, jusqu’à la réalisation d’une analyse de variances et de son interprétation.

  • Article de bases documentaires : Fiche pratique : 1411
    Estimation du biais de mesure selon plusieurs méthodes.

    La justesse d’une méthode de mesure se conçoit d’autant mieux que l’on dispose d’une valeur vraie pour la grandeur mesurée. Mais qu’est-ce que la valeur vraie ? Ne serait-ce pas un saint Graal, une notion mythique faisant l’objet d’une quête scientifique réunissant des laborantins autour d’une paillasse ?

    Bien que cette valeur vraie ne soit pas connue avec certitude, il est possible d’avoir une valeur de référence acceptée, par le biais de :

    • matériaux de référence ;
    • préparation d’un échantillon connu ;
    • méthode de mesure de référence dont la justesse est reconnue ;
    • essais interlaboratoires.
  • Article de bases documentaires : Fiche pratique : 1407
    Présentation de quelques cartes de contrôle

    Un contrôle de qualité structuré, indispensable pour évaluer une méthode, repose sur des bases statistiques rigoureuses permettant au laboratoire de répondre à la double exigence de fidélité (erreur aléatoire) et de justesse (erreur systématique). Le rôle d’une carte est donc de détecter une dérive.

    Une carte de contrôle est, selon l’ISO 3534-2, un « graphique sur lequel sont reportées les valeurs d’une mesure statistique faite sur une série d’échantillons dans un ordre particulier pour orienter le processus en fonction de cette mesure et pour contrôler et réduire la variation ».

  • Article de bases documentaires : Fiche pratique : 1415
    Autres tests de validation

    Différents guides traitent de méthodes de validation : SH GTA 04, norme NF X 90-210, guide SFSTP ou encore SFBC. L’objectif commun de ces guides reste d’étudier les méthodes pour identifier les facteurs induisant des erreurs sur les résultats et d’aider à les quantifier et les interpréter.

    Dans le même objectif, voici une liste de tests supplémentaires à ne surtout pas négliger :

    • contamination ou effet mémoire ;
    • stabilité des réactifs ;
    • corrélation de méthodes ;
    • sensibilité ;
    • spécificité.
  • La robustesse d’une méthode d’analyse est une mesure de sa capacité à supporter sans conséquence de petites variations des paramètres internes à la méthode (pH, débit…). Il s’agit de variations de l’ordre de grandeur de celles qui pourraient se produire lors de la mise en application de la méthode en conditions normales d’usage. La robustesse permet donc d’évaluer la fiabilité d’une méthode dans ses conditions d’usage de routine.

    Plusieurs guides de référence sont mis à la disposition des qualiticiens pour la validation de méthodes analytiques. Les travaux de la Commission d’harmonisation internationale (ICH pour International Conference Harmonisation) avec le guide Q2 (R1) constituent un des documents de référence en la matière. Notons que si la validation de la robustesse n’est pas listée dans les critères obligatoires définis par l’ICH pour la validation d’une méthode analytique, il est notoire que l’étude de la robustesse doit être considérée à une étape appropriée du développement de la procédure d’analyse.

  • Article de bases documentaires : Fiche pratique : 1409
    La validation de méthodes analytiques

    À partir de données observées, seules preuves tangibles et sincères d'une qualité établie et maîtrisée, la validation vous apportera la preuve par l’expérience.

    Cependant, pour valider, il faut avant tout :

    • un même langage (la validation est à la jonction de la qualité, de la métrologie, des statistiques et de l’humain) ;
    • de bonnes méthodes (analyse de risque, qualification d’équipement, suivi des performances) ;
    • de bons outils (plans d’expérience, cartes de contrôle, règle d’échantillonnage, etc.).

    Le domaine de la validation est vaste et vous offrira de nombreuses opportunités d’amélioration.