Logo ETI Quitter la lecture facile

publi-rédactionnel

Éliminer les problèmes de production grâce à l’analyse statistique

Posté le par La rédaction dans Informatique et Numérique

WEB CONFÉRENCE LE MARDI 7 DÉCEMBRE Á 11H

INSCRIPTION

Des résultats hors spécifications persistants provoquaient des inefficacités de production et des pertes financières chez Pierre Fabre, l’un des premiers groupes pharmaceutiques et de santé français, compromettant le respect des exigences de validation des procédés des autorités de réglementation nationales et mondiales.
La mise en œuvre des outils statistiques de JMP a permis aux ingénieurs de l’usine d’identifier de manière systématique les causes principales des inefficacités des procédés et de respecter les obligations réglementaires.

La grande variété de produits proposé par Pierre Fabre implique un ensemble complexe de lignes de production, soumises à des réglementations en perpétuelle évolution. Leur supervision nécessite une parfaite connaissance du procédé de fabrication et des obligations réglementaires correspondantes. C’est précisément ce rôle de liaison qu’exerce Thierry Taillandier, Data Analyst dans l’une des usines du groupe.
La validation des procédés de fabrication est l’ultime étape avant le lancement sur le marché – les directives de la FDA (Food and Drug Administration) et de l’Agence européenne des médicaments (EMA) l’imposent pour garantir des produits de qualité supérieure et homogènes. Depuis 2011, ces directives ont considérablement évolué, entraînant l’adoption de nouvelles approches statistiques dans les entreprises pharmaceutiques afin de faciliter la mise en conformité. « Cela induit un nouveau raisonnement », affirme Thierry Taillandier. Pour faciliter le développement et le respect des nouvelles obligations de reporting, il a fallu trouver un logiciel statistique offrant de multiples fonctionnalités, et répondant aux besoins en matière de recherche et de développement, de création de plans d’expériences, d’analyse des causes principales, etc. « Notre choix porté sur JMP », explique-t-il. La possibilité de l’adapter au niveau de compétences de l’utilisateur a été un facteur décisif. « Je possède quelques connaissances en statistiques, mais certains de mes collègues n’en ont aucune, et nous pouvons adapter le logiciel… il suffit d’un simple clic pour importer une table de données et lancer des tests. » Pour une équipe réticente à adopter une approche statistique dans l’environnement de fabrication, en particulier sur un site aux fonctions scientifiques très variées, cette simplicité fut déterminante.

Remédier aux résultats hors spécifications

Dernièrement, l’une des lignes de production de l’usine était régulièrement hors spécifications. Autrement dit, l’un des paramètres analytiques du principe actif n’était pas conforme aux normes de qualité requises. « Il s’agissait d’un problème très grave car […] nous ne disposons d’aucun procédé de reprise [des lots] », souligne Thierry Taillandier, et tous les lots considérés comme hors spécifications devaient par conséquent être détruits. Les incidents sont devenus de plus en plus fréquents, ce qui a coûté à l’entreprise plusieurs centaines de milliers d’euros en 2016. Des ingénieurs de l’usine ont alors formé un groupe de qualité de production, qui a réalisé un travail d’enquête statistique pour identifier les causes principales du problème. Depuis la mise en œuvre des améliorations recommandées par ce groupe en 2017, aucun lot hors spécifications n’est plus à déplorer, d’où de sérieuses économies et une efficacité accrue.
Dans un premier temps, une équipe de production s’est adressée à Thierry Taillandier pour identifier la cause de la multiplication des résultats non conformes d’un projet lancé sur le site en janvier 2017. Une liste des paramètres de procédé et d’analyse a été établie et les données historiques correspondantes des cinq à sept dernières années ont été recueillies. Avec son équipe, il a ensuite cherché un lien entre les matières premières et les principes actifs. « Nous avons pour cela utilisé la plate-forme de corrélation de JMP, la matrice de corrélation. C’était le meilleur moyen de décrypter les informations pertinentes », précise-t-il. L’équipe s’est servie de différents modèles – dont la régression linéaire et la partition – pour évaluer les paramètres du procédé de production. Dans la mesure où l’une des matières premières peut se présenter sous forme solide ou liquide, le groupe de travail savait que la variabilité de ce paramètre constituait une source d’erreur potentielle. « La stabilité de la réaction chimique est une question d’équilibre. Nous avons utilisé JMP pour déterminer la juste quantité [de matières premières] nécessaire à ce stade. » Pour valider ses résultats, le groupe de travail a de nouveau fait appel à JMP afin de réaliser une régression linéaire et d’évaluer les effets des matières premières sur les autres paramètres ; l’absence d’avertissements au cours de cette analyse l’a encouragé à appliquer les modifications déduites de ses évaluations. Une fois ces changements mis en œuvre, la production s’est considérablement améliorée, et aucun lot hors spécifications n’a été constaté depuis.

Ne manquez pas de rejoindre Thierry Taillandier lors du webinaire du 7 décembre. Il expliquera comment son équipe est parvenue à cerner le processus en tenant compte des données longitudinales des capteurs.

Posté le par La rédaction


Réagissez à cet article

Commentaire sans connexion

Pour déposer un commentaire en mode invité (sans créer de compte ou sans vous connecter), c’est ici.

Captcha

Connectez-vous

Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.

INSCRIVEZ-VOUS
AUX NEWSLETTERS GRATUITES !