Dans les années 1920-1940, le foisonnement théorique et expérimental de la physique nucléaire, discipline alors en plein essor, a également dû répondre au besoin de maîtrise de l’énergie atomique. En effet, quantifier et maîtriser la réaction en chaîne dans un système nucléaire nécessite la résolution d’équations décrivant le comportement du flux de neutrons et l’évolution des concentrations des différents noyaux ; équations dont les coefficients sont des constantes appelées « données nucléaires ». Cette thématique est donc primordiale depuis fort longtemps. Cet objectif correspond à ce qu’Emilio Segrè appelait avoir de « bons nombres » : “In an enterprise such as the building of the atomic bomb the difference between ideas, hopes, suggestions and theoretical calculations, and solid numbers based on measurement, is paramount.” Ce concept était déjà associé à cette époque à la nécessité de développer des approches théoriques (modèles de réactions nucléaires, fission), d’initier la mesure d’observables physiques fondamentales par le biais d’expériences microscopiques, et, très rapidement, de mettre en place des expériences dites « intégrales » (par exemple mesure de masse critique, etc.). Ces trois piliers caractérisent encore aujourd’hui l’activité d’évaluation des données nucléaires.
Les données nucléaires continuent à jouer un rôle essentiel, au même titre que les méthodes numériques et les algorithmes associés, dans les calculs de conception et d’analyse de toutes les applications de l’énergie nucléaire, de la radioprotection à la criticité. En raison de la réduction des biais de calcul due aux progrès des sciences du numérique (mathématiques appliquées, génie logiciel, informatique…), la dépendance des résultats à la qualité des données nucléaires devient prépondérante.
Cet article est consacré au processus d’évaluation de ces données, en insistant sur les phénomènes physiques de base, dont certains éléments de modélisation sont encore perfectibles. L’objectif de ce processus est l’obtention de grandeurs utilisables par les codes de calcul de neutronique, qui permettent la conception et l’analyse des systèmes nucléaires, en particulier les réacteurs. L’évaluation combine modèles de physique, techniques mathématiques et informatiques, expériences destinées à l’obtention de grandeurs et à la validation de l’ensemble à divers niveaux. Les sections efficaces à petit nombre de groupes ont été utilisées très tôt, pour des applications militaires et exploratoires, avec des outils de calcul sommaires. Depuis les premières bibliothèques de sections efficaces destinées aux codes de calcul des années 1960-1970, le processus a considérablement évolué vers l’emploi de modèles de plus en plus fins, de plus en plus prédictifs, mais la complexité globale est telle qu’il est encore illusoire de remplacer l’ensemble par des calculs depuis les premiers principes. L’objectif de ce qui suit est d’expliciter la démarche et de donner des pistes de réflexion pour améliorer l’ensemble vers toujours plus de précision et de pouvoir prédictif.
La bonne compréhension de cet article nécessite la lecture préalable de l’article qui donne les éléments de physique nucléaire de base et les ordres de grandeur utiles [BN 3 010]. L’article concernant les réactions nucléaires donne également nombre d’informations utiles [BN 3 011].
De façon complémentaire à ces deux articles, « opérationnels » et directement utilisables par un physicien des réacteurs, celui-ci vise à soulever le voile sur le processus d’élaboration des données nucléaires, en amont de leur traitement pour une utilisation dans les codes de calcul de physique appliquée.
Cet article pose également les bases utiles à l’évaluation des incertitudes, qui constitue dès aujourd’hui et de façon croissante la pierre de touche de tout dimensionnement.