next up previous contents
Next: 4.1.1 Calcul de l'entropie Up: 4 Cryptographie moderne Previous: 4 Cryptographie moderne   Contents

4.1 Entropie

L'entropie est une mesure de l'incertitude sur l'information et est calculée sur une distribution de probabilités. Le concept de l'entropie fut introduit par Shannon en 1948 dans le cadre de la théorie de l'information.

Supposons une variable aléatoire $ x$ sur un ensemble fini de valeurs $ X$ qui suive une distribution $ \mathbf{X}$.En termes concrets, $ \mathbf{X}$ pourrait représenter un message chiffré, $ X$ pourrait représenter l'alphabet utilisé et $ x$ serait une lettre du message. Si on connaît la valeur déchiffrée de $ x$, quelle quantité d'information cela nous donne-t-il sur le déchiffrement de $ \mathbf{X}$? Si la distribution est aléatoire (par exemple, le texte non chiffré serait une suite désordonnée de lettres n'ayant aucune signification), l'information obtenue sera exactement la valeur déchiffée de $ x$, rien de plus. Cependant, si, par exemple, cette valeur de $ x$ est souvent suivie d'une autre valeur (par exemple, dans le langage courant, « q » est souvent suivi de « u »), on aura plus d'information: c'est-à-dire, on pourra supposer qu'il y a plus de chance que $ x$ soit suivi de cette valeur. La distribution non aléatoire possède une moins grande entropie parce qu'il y a un certain ordre qui la régit. L'entropie sur la distribution $ \mathbf{X}$ est notée $ H(\mathbf{X})$.



Subsections
next up previous contents
Next: 4.1.1 Calcul de l'entropie Up: 4 Cryptographie moderne Previous: 4 Cryptographie moderne   Contents
Simon Perreault 2002-06-02