Logo ETI Quitter la lecture facile

Comment bien utiliser les statistiques pour aider la décision

Posté le par La rédaction dans Environnement

Normaliser la présentation

L'aide à la décision, par exemple en matière de sécurité, repose généralement sur l’exploitation de données disponibles. Elle fait donc appel aux statistiques. Encore faut-il savoir les utiliser ! Voici les 5 principales règles à respecter.

Une aide à la décision, par exemple en matière d’investissement ou de sécurité, repose généralement sur l’exploitation de données disponibles. Elle fait donc appel aux statistiques. Des exemples typiques sont :

  • le déploiement d’un réseau de transport ou d’un réseau d’énergie dans une zone ;
  • l’analyse des effets des pollutions, des rayonnements ionisants, etc.
Les décisions prises sont souvent lourdes de conséquences et représentent des coûts importants. Aussi est-il souhaitable de les asseoir sur des études solides. Deux conditions sont absolument nécessaires et elles devraient être exigées de tous les décideurs :
  • l’étude doit être vérifiable ;
  • l’étude doit être réutilisable.
 » Vérifiable  » signifie que, si on donne tous les éléments à un autre expert, il doit être capable de dire si le travail réalisé est correct ou non. » Réutilisable  » veut dire que l’on peut réemployer des morceaux (par exemple des éléments de code) pour d’autres études, mais aussi que, cinq ans après, on doit pouvoir comparer ce que prédisait l’étude à ce qui s’est produit, et voir si les raisonnement étaient ou non corrects.Si ces deux conditions s’appuient sur le bon sens, force est de constater que la plus grande partie des études que l’on nous demande d’expertiser ne sont ni vérifiables ni réutilisables. On ne sait pas quelles données ont été employées, ni quels raisonnements ont été faits.

Recommandations techniques pour une présentation de l’étude
Dans la grande majorité des études que l’on nous demande d’expertiser, les auteurs utilisent des outils statistiques de manière factice. Par exemple, ils supposent que tel phénomène suit une loi de Gauss, dont ils cherchent à calculer les paramètres dans les cas A et B. Ils veulent montrer que ces paramètres sont différents d’un cas à l’autre. Mais cela ne prouve absolument rien, car rien ne dit que le phénomène en question suive effectivement une loi de Gauss. De même, ils font souvent des hypothèses d’indépendance, qui ne sont pas satisfaites en pratique. Voici quelques règles simples de mise en œuvre d’une étude statistique. La règle de base (c’est une évidence !) est qu’il ne faut faire aucune hypothèse arbitraire. Il faut traiter les données comme elles viennent ! Nous prendrons le cas où le logiciel Excel est utilisé, car dans la majeure partie des situations, il suffit très largement.

1. Privilégier les données brutes
La première feuille (sheets (1)) doit contenir les données brutes sur lesquelles l’étude s’appuie. La présence des données brutes est une nécessité absolue pour que l’on puisse vérifier le travail. Elle est également nécessaire pour que l’on puisse comparer cinq ans après et voir ce qui a changé.

2. Distinguer données brutes et données de travail
Sur la seconde feuille (sheets (2)), on mettra les données de travail. Ce peut être les données brutes, mais pas nécessairement. Par exemple, il nous arrive de normaliser les données (les faire toutes varier entre 0 et 1), ou bien encore de considérer des taux d’accroissement (par exemple : la différence entre une année et la précédente), etc. Toutes ces transformations sont licites, à condition d’être reconnues comme telles. Il ne s’agit plus de données brutes, mais de données ayant suivi un premier traitement. Ce traitement doit être justifié. Il ne faut pas confondre données de travail avec données brutes.

3. Le déroulement de l’étude : faire simple
Une étude statistique a souvent pour objectif d’établir un lien entre une quantité « objectif » que l’on cherche à contrôler et un certain nombre de paramètres « explicatifs » dont on cherche à savoir s’ils influent ou non sur l’objectif. Par exemple :
  • On cherche à analyser l’objectif « taux de cancers dans une région » au travers des paramètres explicatifs : « présence de rayonnements ionisants », « nombre de fumeurs », etc.
  • On cherche à analyser l’objectif « importance des stocks de gaz » au travers des paramètres explicatifs « importance des importations », « importance de la consommation », etc.
Le premier travail à réaliser est de constituer l’histogramme de la quantité « objectif », c’est-à-dire sa loi de probabilité. Ceci est très facile à réaliser sous Excel, de la manière suivante :
  • On divise l’ensemble des valeurs possibles en intervalles de même largeur ;
  • On compte, parmi les points de l’échantillon, combien tombent dans chaque intervalle.
Par exemple, si les intervalles ont pour largeur 10 et si les données sont dans la première colonne, sheets(1), on aura un code VBA du type suivant :for k=1 to nbfinalj=int( sheets(1).cells(k,1)/10)sheets(3).cells(j,2)=sheets(3).cells(j,2)+1next ket la colonne 2 de la feuille 3 contient cet histogramme.La colonne 1 contient les intervalles de construction ; dans notre exemple : Sheet(3).celles(k,1)=10(k-1)Voici un exemple d’histogramme :
Il s’agit des durées d’arrêt de travail, pour des salariés ; on compte quelle proportion est entre 0 et 10 jours, entre 10 et 20 jours, etc.La comparaison de deux histogrammes n’est pas facile, car ce qui compte est l’aire sous la courbe. On préfèrera donc travailler avec les cumuls, c’est-à-dire la fonction de répartition. Pour des raisons pratiques, on représente, pour chaque seuil, le nombre au dessus de ce seuil (et non pas au dessous).
Dans la colonne 3, dans la cellule k, on mettra donc la somme de toutes les cellules de la colonne 2, de k à la fin :for k=1 to nbfinalfor j=k to nbfinalsum=sum+sheets(3).cells(j,2)next jsheets(3).cells(k,3)=sumsum=0next kBien entendu, en première ligne de la colonne 3, on retrouve le total du nombre des points de l’échantillon, ce qui est une manière facile de vérifier que l’on n’a rien oublié.Enfin, en colonne 4, on met les pourcentages cumulés. On obtient une courbe commençant à 100 et finissant à 0 de ce type (Graphe 2 : la fonction G) :
Au dessus de chaque abscisse, dans notre exemple, on indique le nombre de salariés dont la durée d’arrêt de travail est supérieure ou égale à l’abscisse. Cette présentation commençant toujours à 100 et finissant à 0, elle rend les comparaisons très faciles.  
 
Voyons un exemple. Ici, nous avons deux catégories de salariés : une en bleu et l’autre en rouge. Nous voyons que la fonction G pour les bleus est au dessous de la fonction G pour les rouges.
Cela veut dire que, quelle que soit la durée (par exemple 200 jours), le nombre de salariés rouges qui excèdent cette durée est plus important que le nombre de salariés bleus. Il en résulte clairement que les rouges ont des absences plus longues que les bleus. La comparaison est immédiate, et repose intégralement sur des données factuelles.

4. Comment bien prendre en compte les paramètres explicatifs
Pour prendre en compte les paramètres explicatifs, on réalise des lois de probabilité « conditionnelles », de la manière suivante. Prenons le premier paramètre explicatif, et disons que la moitié de ces valeurs sont au dessous de 45 et la moitié au dessus. On recommence l’opération ci-dessus dans le cas où le paramètre est ≤ 45 :for k=1 to nbfinalfor j=k to nbfinalif param1 <= 45 thensum=sum+sheets(3).cells(j,2)end if next jsheets(3).cells(k,3)=sumsum=0next kOn obtient alors, comme précédemment, une courbe que l’on peut juxtaposer sur le même graphique à celle obtenue lorsque le paramètre est > 45. Si, de manière systématique, on voit que la courbe 1 est au-dessous de la courbe 2, on en déduit que, pour chaque seuil, la probabilité d’être au-dessus de ce seuil est plus faible dans le cas 1 que dans le cas 2 (Graphique 4 : distinction selon l’âge) :
On constate ici que la courbe rouge est systématiquement au-dessus de la bleue : pour une durée fixée d’arrêt de travail, il y aura plus de salariés âgés que de salariés jeunes dont l’arrêt de travail excède cette durée : les AT des vieux sont plus longs que ceux des jeunes.Cette manière de procéder – en exploitant des probabilités conditionnelles – est très satisfaisante en ce sens qu’elle ne fait aucune hypothèse a priori et n’utilise aucune « boîte noire ». On ne fait aucun test statistique, dont les conditions de validité sont discutables.
Si l’objectif est un seuil défini en termes de propreté (par exemple une concentration de polluants), on obtient une manière simple et indiscutable de comparer différents cas. Voici un exemple. Il s’agit de la concentration d’un polluant, mesurée par différentes stations (Graphique 5 : concentration de polluants en fonction de la densité de population).
La série 1, en bleu, concerne les zones où la densité de population est inférieure à 80 habitants au km². La série 2 (en rouge), celle où la densité est entre 80 et 170 et la série 3 (en vert), les zones où la densité est supérieure à 170. On constate clairement que la courbe « forte densité » est au-dessus des deux autres. La proportion de stations, dans les zones de forte densité, ayant une pollution au-dessus d’un seuil donné, est plus élevée que dans les zones de moyenne ou faible densité.
Par exemple, 40 % des stations « forte densité » ont une pollution d’au moins 1,60 (gramme par litre) alors qu’aucune ne l’a pour les stations des zones « moyenne densité » ou « faible densité ». Il est complètement légitime de dire, sans aucune équivoque, que dans la zone considérée et pour ce polluant-là, les zones de forte densité de population sont plus polluées que les autres.

5. Attention aux exemples mixtes
Voyons maintenant comment interpréter un exemple « mixte ». L’une des courbes n’est pas toujours au dessus de l’autre. Elles se croisent (Graphique 6 : situation mixte).
Dans l’exemple ci-contre (totalement factice), les deux courbes se croisent à la concentration 10 g/l. La valeur commune des deux fonctions est 50 % en ce point. Nous aurons donc 50 % des stations de type 1 (bleu) et 50 % des stations de type 2 (rouge) avec une concentration supérieure ou égale à 10 g/l.
Si nous prenons une concentration supérieure, mettons 15 g/l, nous avons 25 % des bleus et 14,6 % des rouges au dessus de cette valeur. Nous en déduisons que les rouges sont moins sujets aux fortes pollutions.Si nous prenons une concentration inférieure, mettons 5 g/l, nous avons 75 % des bleus et 85,3 % des rouges au dessus de cette valeur. Nous en déduisons que les rouges sont plus sujets aux faibles pollutions.Par différence, dans l’intervalle 5 – 10, nous avons 25 % des bleus et 35,3 % des rouges. Là encore, la conclusion est donc très simple : il y a plus de bleus que de rouges dans l’intervalle 10 – 15 ; plus de rouges que de bleus dans l’intervalle 5 – 10.Insistons bien sur le fait que tous ces nombres sont des proportions dans chaque classe, et non des proportions globales. Pour illustrer ceci, disons qu’il y a 1.000 stations bleues et 5.000 rouges. Alors, dans l’intervalle 5 – 10, le nombre de stations bleues est 25 % de 1.000, soit 250, et le nombre de rouges est 35,3 % de 5.000, soit 1.765. Utiliser le nombre global de 6.000 stations serait une erreur, puisque les rouges sont 5 fois plus représentées que les bleues. Dans tous les cas, la position relative des différentes courbes, sur n’importe quel intervalle, renseigne sur l’importance relative du phénomène.Par Bernard Beauzamy, PDG de la Société de Calcul Mathématique S.A (SCM SA), membre du CNRI

Posté le par La rédaction


Réagissez à cet article

Commentaire sans connexion

Pour déposer un commentaire en mode invité (sans créer de compte ou sans vous connecter), c’est ici.

Captcha

Connectez-vous

Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.

INSCRIVEZ-VOUS
AUX NEWSLETTERS GRATUITES !