En mathématiques et plus particulièrement en théorie des probabilités et en statistique, la distance en variation totale (ou distance de variation totale ou encore distance de la variation totale) désigne une distance statistique définie sur l'ensemble des mesures de probabilité d'un espace probabilisable.
Soit μ , ν {\displaystyle \mu ,\nu } deux mesures de probabilité sur un espace probabilisable ( Ω , F ) {\displaystyle (\Omega ,{\mathcal {F}})} . La distance en variation totale entre μ {\displaystyle \mu } et ν {\displaystyle \nu } est la quantité
Il arrive que le facteur 2 n'apparaisse pas chez certains auteurs.[réf. nécessaire]
Soit X {\displaystyle X} et Y {\displaystyle Y} deux variables aléatoires à valeurs dans le même espace. On peut aussi définir la distance en variation totale entre X {\displaystyle X} et Y {\displaystyle Y} comme la distance en variation totale entre la loi de X {\displaystyle X} et celle de Y {\displaystyle Y} . Autrement dit, on pose
On trouve parfois d'autres définitions pour la distance en variation totale.
Pour tout couple de variables aléatoires ( X , Y ) {\displaystyle (X,Y)} tel que X {\displaystyle X} suit la loi μ {\displaystyle \mu } et Y {\displaystyle Y} suit la loi ν {\displaystyle \nu } , on a l'inégalité
De plus, il existe un couple ( X , Y ) {\displaystyle (X,Y)} tel que X ∼ μ {\displaystyle X\sim \mu } et Y ∼ ν {\displaystyle Y\sim \nu } qui satisfait[3]
Autrement dit, on a la caractérisation suivante de la distance en variation totale
Si ( μ i ) i ∈ I {\displaystyle (\mu _{i})_{i\in I}} est une famille de mesures de probabilité toutes absolument continues par rapport à une mesure commune σ {\displaystyle \sigma } -finie, alors il existe des variables aléatoires ( X i ) i ∈ I {\displaystyle (X_{i})_{i\in I}} telles que pour tout i ∈ I {\displaystyle i\in I} , X i ∼ μ i {\displaystyle X_{i}\sim \mu _{i}} et pour tout i ≠ j {\displaystyle i\neq j} [4]
Pour une mesure signée σ {\displaystyle \sigma } sur ( Ω , F ) {\displaystyle (\Omega ,{\mathcal {F}})} on définit sa norme en variation totale comme
où σ = σ + − σ − {\displaystyle \sigma =\sigma ^{+}-\sigma ^{-}} est la décomposition de Jordan de la mesure σ {\displaystyle \sigma } .
De manière générale si σ ( Ω ) = 0 {\displaystyle \sigma (\Omega )=0} alors[5]
En appliquant ce résultat à σ = ν − μ {\displaystyle \sigma =\nu -\mu } on obtient que
La convergence d'une suite de mesures pour la distance en variation totale implique la convergence faible (et les limites sont les mêmes le cas échéant). De manière équivalente, si une suite de variables aléatoires converge pour la distance en variation totale, alors elle converge en loi (et les limites sont les mêmes)[8].