On définit pour tout u ∈ R∗+,
h(u) = u ln(u)
et pour tout u ∈ R−,
h(u) = 0.
Étude de fonction
- Démontrer que la fonction h est continue sur R.
- Justifier que pour tout u > 0
on a
h(u) ≥ u − 1
avec égalité si et seulement si u = 1.
- Représenter la courbe de la fonction h
ainsi que sa tangeante au point d’abscisse 1.
Entropie d’une variable aléatoire discrète
Si X est une variable aléatoire réelle discrète à valeurs dans
X(Ω) = {x1, …, xn
avec pour tout i ∈ ⟦1, n⟧,
pi = P(X = xi),
alors l’entropie de x est définie par
H(X)
= − ∑i=1n
h(pi)
= − ∑i=1n
pi ln(pi).
On remarquera que l’entropie ne dépend que des probabilités et pas des valeurs.
- Si X suit une loi de Bernoulli de paramètre p ∈ ]0, 1[,
rappeler l’ensemble de valeurs X(Ω)
et les probabilités associées puis calculer son entropie.
- Justifier que la fonction φ : t ↦ −t ln(t) + (t − 1) (t + ln(1 − t))
est deux fois dérivable sur ]0, 1[ et calculer sa dérivée seconde.
Préciser aussi φ ′(1/2)
et en déduire le tableau de variations de φ
avec ses limites.
- En déduire que l’entropie d’une variable de Bernoulli est supérieure à sa variance.
- Calculer l’entropie d’une variable uniforme sur ⟦1, n⟧
et comparer les valeurs de l’entropie et de la variance.
- Montrer, en utilisant l’inégalité obtenue dans la première partie,
que pour toute variable aléatoire réelle X
avec n valeurs,
on trouve
H(X) ≤ ln(n)
avec une inégalité stricte si X n’est pas uniforme.