Bien que les modèles de quantification de la fiabilité du logiciel soient un sujet controversé , ils restent les seuls à permettre une évaluation objective du niveau de fiabilité obtenu en fin de développement. De ce fait, ce point n'est jamais explicitement traité, ou est abordé de manière subjective, ou encore est remplacé par des exigences sur le processus de réalisation. Dans tous les cas, les techniques de substitution utilisées ne permettent pas d'avoir une idée précise du risque que l'on prend en mettant un logiciel en opération, ce qui est, par essence, le but de la quantification de la fiabilité.
Cet article décrit les fondements théoriques de la quantification de la fiabilité du logiciel et en explique les modes d'utilisation. Il s'efforce de lever les principales réticences rencontrées vis-à-vis de la quantification de fiabilité du logiciel en expliquant notamment le processus qui est à l'origine de l'apparition des défaillances et la manière dont les mathématiciens ont proposé de le modéliser. Il explique également comment les donneurs d'ordre pourraient mettre en œuvre des exigences de fiabilité du logiciel qui concourraient nettement à obtenir une meilleure qualité opérationnelle des composantes informatiques des systèmes complexes qu'ils acquièrent.
L'objectif de l'article est de montrer que la modélisation de fiabilité est une technique statistique valide et applicable aux logiciels quelle que soit leur nature : logiciels embarqués, logiciels temps réels, logiciels de système d'information de tout domaine. L'article fait également un bilan des pratiques industrielles actuelles et donne des pistes potentielles d'évolution de ces pratiques dans l'avenir.