L'inégalité log somme (ou log sum inequality ) est fréquemment utilisée en théorie de l'information .
Énoncé
Soient
a
1
,
… … -->
,
a
n
{\displaystyle a_{1},\ldots ,a_{n}}
et
b
1
,
… … -->
,
b
n
{\displaystyle b_{1},\ldots ,b_{n}}
des réels strictement positifs, avec
a
=
∑ ∑ -->
i
=
1
n
a
i
{\displaystyle a=\sum _{i=1}^{n}a_{i}}
et
b
=
∑ ∑ -->
i
=
1
n
b
i
{\displaystyle b=\sum _{i=1}^{n}b_{i}}
, alors :
∑ ∑ -->
i
=
1
n
a
i
log
-->
a
i
b
i
≥ ≥ -->
a
log
-->
a
b
,
{\displaystyle \sum _{i=1}^{n}a_{i}\log {\frac {a_{i}}{b_{i}}}\geq a\log {\frac {a}{b}},}
avec égalité si et seulement si
∀ ∀ -->
i
,
j
∈ ∈ -->
{
1
,
.
.
.
,
n
}
2
,
a
i
b
i
=
a
j
b
j
{\displaystyle \forall i,j\in \{1,...,n\}^{2},{\frac {a_{i}}{b_{i}}}={\frac {a_{j}}{b_{j}}}}
, c'est-à-dire qu'il existe une constante
c
{\displaystyle c}
telle que
∀ ∀ -->
i
∈ ∈ -->
{
1
,
.
.
.
,
n
}
,
a
i
=
c
b
i
{\displaystyle \forall i\in \{1,...,n\},a_{i}=c~b_{i}}
.[ 1]
(On prendra
a
i
log
-->
a
i
b
i
=
0
{\displaystyle a_{i}\log {\frac {a_{i}}{b_{i}}}=0}
si
a
i
=
0
{\displaystyle a_{i}=0}
et
a
i
log
-->
a
i
b
i
=
∞ ∞ -->
{\displaystyle a_{i}\log {\frac {a_{i}}{b_{i}}}=\infty }
si
a
i
>
0
{\displaystyle a_{i}>0}
et
b
i
=
0
{\displaystyle b_{i}=0}
. Ces valeurs sont obtenues par prolongement par continuité en
0
{\displaystyle 0}
.)[ 1]
Preuve
En posant
f
(
x
)
=
x
log
-->
x
{\displaystyle f(x)=x\log x}
, nous avons
∑ ∑ -->
i
=
1
n
a
i
log
-->
a
i
b
i
=
∑ ∑ -->
i
=
1
n
b
i
f
(
a
i
b
i
)
=
b
∑ ∑ -->
i
=
1
n
b
i
b
f
(
a
i
b
i
)
≥ ≥ -->
b
f
(
∑ ∑ -->
i
=
1
n
b
i
b
a
i
b
i
)
=
b
f
(
1
b
∑ ∑ -->
i
=
1
n
a
i
)
=
b
f
(
a
b
)
=
a
log
-->
a
b
,
{\displaystyle {\begin{aligned}\sum _{i=1}^{n}a_{i}\log {\frac {a_{i}}{b_{i}}}&{}=\sum _{i=1}^{n}b_{i}f\left({\frac {a_{i}}{b_{i}}}\right)=b\sum _{i=1}^{n}{\frac {b_{i}}{b}}f\left({\frac {a_{i}}{b_{i}}}\right)\\&{}\geq bf\left(\sum _{i=1}^{n}{\frac {b_{i}}{b}}{\frac {a_{i}}{b_{i}}}\right)=bf\left({\frac {1}{b}}\sum _{i=1}^{n}a_{i}\right)=bf\left({\frac {a}{b}}\right)\\&{}=a\log {\frac {a}{b}},\end{aligned}}}
où l'inégalité vient de l'inégalité de Jensen puisque
b
i
b
≥ ≥ -->
0
{\displaystyle {\frac {b_{i}}{b}}\geq 0}
,
∑ ∑ -->
i
=
1
n
b
i
b
=
1
{\displaystyle \sum _{i=1}^{n}{\frac {b_{i}}{b}}=1}
et
f
{\displaystyle f}
est une fonction convexe .[ 1]
Généralisations
Cette inégalité reste valide pour
n
=
∞ ∞ -->
{\displaystyle n=\infty }
, puisque
a
<
∞ ∞ -->
{\displaystyle a<\infty }
et
b
<
∞ ∞ -->
{\displaystyle b<\infty }
.[citation nécessaire]
La preuve ci-dessus reste vraie pour toute fonction
g
{\displaystyle g}
telle que
f
(
x
)
=
x
g
(
x
)
{\displaystyle f(x)=xg(x)}
soit convexe, comme toute fonction croissante continue. La généralisation aux fonctions croissantes autres que le logarithme est donné dans Csiszár, 2004.
Applications
L'inégalité log-somme peut être utilisée pour prouver des inégalités en théorie de l'information. L'inégalité de Gibbs affirme que la divergence de Kullback-Leibler est positive, et égale à zéro si ses arguments sont égaux.[ 2] Une preuve utilise l'inégalité log-somme.
Cette inégalité peut aussi prouver la convexité de la divergence de Kullback-Leibler. [ 3]
Notes et références
Bibliographie
Thomas M. Cover et Joy A. Thomas, Elements of Information Theory , Hoboken (New Jersey), Wiley, 1991 (ISBN 978-0-471-24195-9 )
I. Csiszár et P. Shields , « Information Theory and Statistics: A Tutorial », Foundations and Trends in Communications and Information Theory , vol. 1, no 4, 2004 , p. 417–528 (DOI 10.1561/0100000004 , lire en ligne , consulté le 14 juin 2009 )
T.S. Han, K. Kobayashi, Mathematics of information and coding. American Mathematical Society , 2001. (ISBN 0-8218-0534-7 ) .
Information Theory course materials, Utah State University [1] . Retrieved on 2009-06-14.
David J.C. MacKay , Information Theory, Inference, and Learning Algorithms , Cambridge University Press, 2003 (ISBN 0-521-64298-1 , lire en ligne )