Présentation
EnglishRÉSUMÉ
Les méthodes d’analyse spectrométrique sont rapides, nécessitent peu de préparation des échantillons, et ont l’avantage d’être applicables dans l’industrie. Cependant, elles sont très souvent utilisées de manière indirecte car leur étalonnage s’avère difficile ; les valeurs de référence étant très souvent estimées sur la base d’un modèle prédictif. Cet article présente les méthodes de régression pouvant répondre à ce problème d’étalonnage. Il conduit ensuite les étapes de développement d’une application analytique de spectrométrie, comprenant l’étalonnage, mais également la validation et le contrôle régulier de la chaîne analytique.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleAuteur(s)
-
Dominique BERTRAND : Docteur en biochimie - Directeur de recherche à l’Institut national de la recherche agronomique
INTRODUCTION
De nombreux dosages appliqués dans les laboratoires et dans l’industrie mettent en œuvre des méthodes spectrométriques. Ces méthodes sont en effet souvent bien adaptées aux analyses de routine : elles peuvent être spécifiques, précises et faciles à appliquer dans des conditions industrielles. Certaines d’entre elles, telles que celles qui reposent sur la spectroscopie vibrationnelle (dans les plages spectrales du visible ou de l’infrarouge proche ou moyen) se prêtent bien à l’automatisation et à la mesure sur la ligne de production. Elles sont rapides et peuvent souvent s’appliquer sur des produits complexes, sans préparation fastidieuse des échantillons. Ces méthodes sont à l’origine de très nombreux appareils d’analyse, souvent dévolus à une gamme très spécifique de produits, utilisés dans pratiquement toutes les branches industrielles.
Malgré leur intérêt, les méthodes d’analyse spectrométrique peuvent présenter certaines difficultés, notamment en ce qui concerne leur étalonnage. En effet, ces méthodes sont presque toujours utilisées de manière indirecte, en remplacement de méthodes analytiques plus ou moins normalisées et dites « de référence ». Au cours de la mise au point d’une analyse par spectrométrie, on fait implicitement l’hypothèse que les données provenant de l’instrument de mesure physique (le spectromètre) contiennent des informations qui peuvent servir à estimer la valeur analytique qui aurait été obtenue si l’on avait utilisé la méthode de référence. Une première étape de la mise au point consiste à établir un modèle prédictif qui a pour but de fournir une estimation de la valeur de référence à partir des données mesurées (spectre) sur l’échantillon à analyser. Après avoir été validé, le modèle est ultérieurement appliqué, dans les analyses de routine, pour doser des échantillons pour lesquels la valeur analytique de référence est inconnue.
À partir des seules connaissances spectroscopiques, il est en général impossible de modéliser très précisément la réponse d’un spectromètre. On ne dispose généralement pas d’une information suffisante sur la composition de l’échantillon analysé, ni sur ses caractéristiques physiques qui jouent un rôle important dans la mesure spectrale. Pour cette raison, les modèles prédictifs sont généralement établis en appliquant une approche expérimentale, reposant sur l’étude de produits représentatifs de la population et analysés par la méthode de référence. De nombreuses méthodes mathématiques et statistiques sont, en principe, applicables pour effectuer cet étalonnage. Le développement de ces méthodes est un des thèmes de la chimiométrie (« chemometrics » en langue anglaise) dont le but est d’utiliser les sciences mathématiques, informatiques et statistiques pour extraire des informations pertinentes à partir de mesures provenant de capteurs, dans le domaine de la chimie.
L’étalonnage des méthodes spectrométriques peut reposer sur deux grandes catégories de méthodes : les méthodes multidimensionnelles (linéaires) et les méthodes connexionnistes, reposant sur le concept de réseaux de neurones. Dans les méthodes connexionnistes, le modèle prédictif se présente sous la forme d’un ensemble de petites unités interconnectées, appelées « neurones », qui effectuent chacune une transformation mathématique très simple et transmettent le résultat à un ou plusieurs neurones [1]. Ces méthodes sont encore en développement et restent d’un emploi marginal dans le domaine de la spectrométrie. Elles ont souvent le défaut de conduire à des modèles très complexes, difficiles à interpréter sur le plan spectroscopique. Au contraire, les méthodes multidimensionnelles sont d’un usage très courant et sont efficaces. La régression PLS (« Partial Least-Squares », moindres carrés partiels), qui est probablement la plus employée actuellement, a été à l’origine d’une véritable révolution conceptuelle dans le domaine de l’étalonnage des méthodes spectrométriques.
Nous présentons ici les différentes étapes d’étude d’une méthode spectrométrique, qui comprennent non seulement l’étalonnage proprement dit, mais également sa validation et son suivi au cours des analyses de série.
DOI (Digital Object Identifier)
Cet article fait partie de l’offre
Qualité et sécurité au laboratoire
(129 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
Cet article fait partie de l’offre
Qualité et sécurité au laboratoire
(129 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
BIBLIOGRAPHIE
-
(1) - HAYKIN (S.) - Neural Networks. A comprehensive foundation (Les réseaux de neurones. Une introduction complète) - . Prentice Hall International Editions, USA, 696 p. (1994).
-
(2) - WORKMAN (J.J) - NIR spectroscopy calibration basics in BURNS (D.A.) et CIURCZAK (E.W.), coordonnateurs. Handbook of Near- Infrared Analysis (Manuel d’analyse par spectroscopie proche infrarouge) - . Marcel Dekker, New York, p. 247 à 280, 681 p. (1992).
-
(3) - TENENHAUS (M.) - La régression PLS. Théorie et pratique - . Éditions Technip, Paris, 254 p. (1998).
-
(4) - MARTENS (M.), NAES (T.) - Multivariate calibration (L’étalonnage multivarié) - . John Wiley & sons, 419 p. (1993).
-
(5) - BRY (X.) - Analyses factorielles multiples - . Economica, Paris, 112 p. (1996).
-
(6) - FEINBERG (M.) - Méthodes...
Cet article fait partie de l’offre
Qualité et sécurité au laboratoire
(129 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive