L'imagerie infrarouge a connu depuis le début des années 1990 une véritable révolution avec le développement et la mise à disposition du marché civil de matrices de détection infrarouge non refroidies. Jusque là, l'utilisation de l'imagerie infrarouge était réservée aux domaines militaire, spatial et civil de haut de gamme. En effet, les seuls détecteurs disponibles étaient basés sur une détection de type quantique qui nécessite un matériau semi-conducteur dont la largeur de bande interdite est adaptée à la longueur d'onde à détecter comme l'est le silicium pour la détection dans le domaine du visible. Dans le cas de l'infrarouge, les énergies à détecter sont plus faibles (environ 0,1 eV pour la bande spectrale centrée à une longueur d'onde de 10 µm) et donc la bande interdite du matériau semi-conducteur doit être de 0,1 eV ou 100 meV. Cette faible énergie fait qu'à la température ambiante le courant photonique généré dans la structure de détection (photodiode) est complètement masqué par le courant thermique. La seule solution est alors de recourir au refroidissement du photodétecteur pour diminuer le courant d'origine thermique jusqu'à une valeur qui permet la lecture du courant photonique. Ces contraintes (matériau semi-conducteur de faible largeur de bande interdite et machine de refroidissement) font que les détecteurs infrarouges de type quantique sont chers à développer et à produire et chers à utiliser.
En revanche, la détection thermique, basée sur la mesure de l'élévation de température d'un matériau absorbant le flux infrarouge incident, ne nécessite plus de refroidissement pour fonctionner. La difficulté est alors d'intégrer les fonctions nécessaires à ce type de détection dans des pixels suffisamment petits pour réaliser des rétines à deux dimensions de taille raisonnable, adaptées aux applications d'imagerie. Ce sont les développements des technologies de la microélectronique sur silicium qui ont permis, en levant ces difficultés, cette révolution de l'imagerie infrarouge.