En théorie des probabilités, l’inégalité de Hoeffding est une inégalité de concentration concernant les sommes de variables aléatoires indépendantes et bornées. Elle tire son nom du mathématicien et statisticien finlandais Wassily Hoeffding. Il existe une version plus générale de cette inégalité, concernant une somme d'accroissements de martingales, accroissements là encore bornés : cette version plus générale est parfois connue sous le nom d'inégalité d'Azuma-Hoeffding.
Inégalité de Hoeffding — Soit une suite ( X k ) 1 ≤ k ≤ n {\displaystyle \ (X_{k})_{1\leq k\leq n}\ } de variables aléatoires réelles indépendantes vérifiant, pour deux suites ( a k ) 1 ≤ k ≤ n , {\displaystyle \ (a_{k})_{1\leq k\leq n},\ } ( b k ) 1 ≤ k ≤ n {\displaystyle \ (b_{k})_{1\leq k\leq n}\ } de nombres réels tels que a k < b k , {\displaystyle \ a_{k}<b_{k},\ }
On pose
Alors, pour tout t > 0 , {\displaystyle \ t>0,\ }
Dans cette section, nous allons comparer l'inégalité de Hoeffding et l'inégalité de Bienaymé-Tchebychev dans le cas de la loi binomiale. Supposons que pour tout k entre 1 et n, on ait
Alors S n {\displaystyle \ S_{n}\ } représente le nombre de piles obtenus à un jeu de pile ou face avec n lancers et où p est la probabilité d'avoir pile sur un lancer. S n {\displaystyle \ S_{n}\ } suit la loi binomiale de paramètres n et p. Nous avons les inégalités suivantes, pour tout x > 0 {\displaystyle x>0} :
On voit que dans ce cas (et c'est assez représentatif de la situation générale[réf. nécessaire]) l'inégalité de Hoeffding est beaucoup plus précise pour x {\displaystyle \ x\ } suffisamment grand.
La démonstration fait usage de la proposition suivante :
Proposition — Soit Y {\displaystyle \ Y\ } une variable aléatoire réelle bornée et centrée (vérifiant E [ Y ] = 0 {\displaystyle \ \mathbb {E} [Y]=0\ } ). Soit c , d {\displaystyle \ c,\,d\ } deux nombres réels tels que c < d {\displaystyle \ c<d\ } et tels que P ( c ≤ Y ≤ d ) = 1. {\displaystyle \ \mathbb {P} (c\leq Y\leq d)=1.\ } Alors, pour tout réel s > 0 , {\displaystyle \ s>0,\ }
D'abord, on peut supposer c < 0 et d > 0. En effet, si c ≥ 0 {\displaystyle c\geq 0} , alors Y est une variable aléatoire presque-sûrement positive d'espérance nulle, donc Y=0 presque-sûrement et la proposition est évidente ; le raisonnement est analogue pour d ≤ 0. {\displaystyle d\leq 0.} Par convexité de la fonction x ↦ e s x , {\displaystyle \ x\mapsto e^{sx},\ } on a, pour c ≤ Y ( ω ) ≤ d , {\displaystyle \ c\leq Y(\omega )\leq d,\ }
En passant à l'espérance, puisque P ( c ≤ Y ≤ d ) = 1 , {\displaystyle \ \mathbb {P} (c\leq Y\leq d)=1,\ } on en déduit que
Puisque c < 0 et d > 0, on a bien p ∈ [ 0 , 1 ] {\displaystyle p\in [0,1]} d'où la pertinence de la notation. Il suit que
On remarque alors que ψ ( 0 ) = ψ ′ ( 0 ) = 0. {\displaystyle \ \psi (0)=\psi ^{\prime }(0)=0.\ } De plus
Alors, en vertu de la formule de Taylor-Lagrange à l'ordre 1,
On applique ensuite l'inégalité de Markov. Pour cela, on pose:
et on remarque que
Pour tout s > 0 , {\displaystyle \ s>0,\ } on a donc, en vertu d'un corollaire de l'inégalité de Markov, de l'indépendance des X i , {\displaystyle \ X_{i},\ } et donc des Y i , {\displaystyle \ Y_{i},\ } et de la proposition précédente :
L'inégalité est en particulier vraie pour
qui réalise le minimum de la borne de droite, ce qui démontre la première inégalité. La deuxième inégalité se démontre en remplaçant Y i {\displaystyle \ Y_{i}\ } par Y i ′ = E [ X i ] − X i , {\displaystyle \ Y_{i}^{\prime }=\mathbb {E} [X_{i}]-X_{i},\ } et S n − E [ S n ] {\displaystyle \ S_{n}-\mathbb {E} [S_{n}]\ } par E [ S n ] − S n , {\displaystyle \ \mathbb {E} [S_{n}]-S_{n},\ } dans le calcul précédent, en posant
et en remarquant que
La troisième inégalité est une conséquence directe des deux premières.
Dans son article de 1963, Hoeffding a donné un énoncé légèrement plus général de son inégalité, utilisant l'inégalité de Doob. Plus précisément, sous les mêmes hypothèses, pour tout t > 0 , {\displaystyle \ t>0,\ }