Linformation a été le moteur de la croissance socio-économique de la civilisation depuis ses débuts. Actuellement, son stockage, archivage et traitement par les centres dédiés n’offrent plus de marges suffisantes d’optimisation pour faire face au déluge des données, et à son problématique impact environnemental. Un récent rapport de l’Académie des technologies explore une alternative prometteuse au modèle conventionnel : l’archivage des données à l’échelle moléculaire, un chantier de 20 ans.
En effet, le stockage et archivage des mégadonnées numériques (« big data ») par l’approche actuelle des centres de données ne seront pas soutenables au-delà de 2040. La sphère globale des données (SGD) créées par l’humanité était estimée en 2018 à 33 zettaoctets (33 mille milliards de milliards d’octets), du même ordre que le nombre estimé d’étoiles dans l’univers observable. La SGD augmente d’un facteur deux tous les deux ou trois ans, soit environ cent à mille tous les vingt ans. Cet article ne traite pas des efforts qui pourraient être consentis pour ralentir la croissance de la SGD, même si cet aspect fait partie de la problématique au sens large.
Une part majoritaire de ces données est ensuite stockée dans plusieurs millions de centres de données (en incluant ceux des entreprises et le « cloud »), qui fonctionnent au sein de réseaux de transmission. Ensemble, ceux-ci consomment déjà environ 2-4 % de l’électricité dans les pays avancés. Leur coût de construction et d’exploitation est globalement de l’ordre de mille milliards d’euros. Ces centres couvrent un millionième de la surface émergée du globe (soit environ 150 km2) ; au rythme actuel, ils en couvriraient un dix-millième à un millième vers 2040 (soit environ 150 000 km2, 1/3 de la France). Les technologies de stockage utilisées par ces centres sont rapidement frappées d’obsolescence aux niveaux du format, du dispositif de lecture/écriture mais également du support lequel nécessite des copies tous les cinq à sept ans pour garantir l’intégrité des données. Elles posent aussi des problèmes croissants d’approvisionnement en ressources rares comme le silicium de grade électronique.
Sachant qu’en 2040, il y aurait cent à mille fois plus de données à conserver, ces chiffres démontrent que le modèle actuel de conservation sera d’ici là devenu insuffisant, tout en étant insupportable au plan environnemental.
L’alternative prometteuse discutée dans cet article est offerte par les supports moléculaires porteurs d’information, tel que l’ADN, utilisé ici comme agent chimique en dehors du vivant, ou d’autres hétéropolymères non-ADN très prometteurs. Potentiellement, l’ADN permet des densités informationnelles dix millions de fois supérieures aux mémoires traditionnelles : toute la SGD actuelle tiendrait dans une fourgonnette. L’ADN est stable à température ordinaire durant plusieurs millénaires, sans consommation énergétique. Il peut être aisément multiplié ou détruit à volonté. Certains calculs peuvent être physiquement implémentés avec des fragments d’ADN. Enfin, sa technologie ne deviendra pas obsolète car il constitue notre matériel héréditaire.
Points clés
Domaine : 1) Technologies de l’Information ; 2) Procédés Chimie Bio Agro
Degré de diffusion de la technologie : Émergence
Technologies impliquées : Biologie moléculaire ; Chimie des hétéropolymères ; Informatique du codage/décodage
Domaines d’application : Archivage des données numériques ; centres de données ; cloud ; big data ; intelligence artificielle
Principaux acteurs français :
Pôles de compétitivité :
Centres de compétence : Institut Charles Sadron, CNRS et Univ. Strasbourg ; I3S, CNRS et Univ. Nice ; IRISA, INRIA, CNRS et Univ. Rennes
Industriels : DNA Script ; Imagene
Autres acteurs dans le monde : Voir bibliographie et sites Web en fin de texte
Contact : [email protected]