Introduction
1 Vue d'ensemble préliminaire
1.1 Paradigme de Shannon
1.2 Vue d'ensemble sur la théorie de l'information
1.3 Fonctions et limites des procédés de codage
2 Mesure quantitative de l'information: entropie, informationmutuelle moyenne
2.1 Quantité d'information (propre ou mutuelle) dans le cas discret
2.2 Entropie et information mutuelle moyenne dans le cas discret
2.3 Principales propriétés mathématiques de l'entropie et de l'informationmutuelle moyenne
2.4 Unicité de l'expression de l'entropie
2.5 Débits d'information. Extensions d'une source
2.6 Possibilités de généralisation au continu
2.7 Commentaires sur la mesure de l'information
3 Sources: entropie, codage de source
3.1 Sources sans mémoire, sources markoviennes, sources ergodiques .
3.2 Codage de source
3.3 Commentaires sur le codage de source
4 Canaux: capacité, codage de canal, théorème fondamental
4.1 Types de canaux. Capacité d'un canal
4.2 Théorème fondamental du codage de canal
4.3 Applications à des cas particuliers
5 Généralisations, perspectives et conclusion
Index bibliographique