Road to AMI Labs
Entropy
Chapitre 1 · Leçon 10
Entropie de Shannon
Le problème : combien d'information contient un message ?
Tu reçois un message : "il pleut à Londres". Pas très surprenant — il pleut souvent à Londres. Maintenant : "il neige au Sahara". Beaucoup plus surprenant ! L'entropie quantifie cette intuition : un événement improbable porte plus d'information qu'un événement prévisible. L'entropie d'une distribution mesure la quantité moyenne de surprise — c'est la mesure fondamentale de l'incertitude.
Key Idea
L'entropie mesure l'incertitude moyenne d'une variable aléatoire. En deep learning, elle apparaît dans la cross-entropy loss, dans la régularisation par maximum d'entropie, et dans la théorie de l'information bottleneck. Minimiser la cross-entropy = minimiser la surprise du modèle face aux données.
L'information de Shannon : quantifier la surprise
Combien de bits pour encoder un événement ?
Tu lances une pièce équilibrée. Le résultat (pile ou face) nécessite 1 bit d'information. Tu lances un dé à 8 faces : il faut 3 bits (). Plus un événement est improbable, plus il faut de bits pour l'encoder — plus il est "surprenant".