En théorie des probabilités et en statistique , la loi de Wishart inverse , également appelée loi de Wishart inversée , est une loi de probabilité définie sur l'ensemble des matrices définies positives à coefficients réels.
Une variable qui suit une loi de Wishart inverse sera notée
X
∼ ∼ -->
W
− − -->
1
(
Ψ Ψ -->
,
ν ν -->
)
{\displaystyle \mathbf {X} \sim W^{-1}({\mathbf {\Psi } },\nu )}
et est définie par la loi de sa matrice inverse :
X
− − -->
1
{\displaystyle \mathbf {X} ^{-1}}
suit une loi de Wishart
W
(
Ψ Ψ -->
− − -->
1
,
ν ν -->
)
{\displaystyle W({\mathbf {\Psi } }^{-1},\nu )}
.
Densité
La densité de probabilité de la loi de Wishart inverse est :
|
Ψ Ψ -->
|
ν ν -->
2
2
ν ν -->
p
2
Γ Γ -->
p
(
ν ν -->
2
)
|
X
|
− − -->
ν ν -->
+
p
+
1
2
e
− − -->
1
2
tr
-->
(
Ψ Ψ -->
X
− − -->
1
)
{\displaystyle {\frac {\left|{\mathbf {\Psi } }\right|^{\frac {\nu }{2}}}{2^{\frac {\nu p}{2}}\Gamma _{p}({\frac {\nu }{2}})}}\left|\mathbf {X} \right|^{-{\frac {\nu +p+1}{2}}}{\rm {e}}^{-{\frac {1}{2}}\operatorname {tr} ({\mathbf {\Psi } }\mathbf {X} ^{-1})}}
où
X
{\displaystyle \mathbf {X} }
et
Ψ Ψ -->
{\displaystyle {\mathbf {\Psi } }}
sont des matrices définies positives
p
× × -->
p
{\displaystyle p\times p}
et
Γ Γ -->
p
{\displaystyle \Gamma _{p}}
est la fonction gamma multidimensionnelle .
Théorèmes
Loi de l'inverse d'une matrice de loi de Wishart
Si
A
∼ ∼ -->
W
(
Σ Σ -->
,
ν ν -->
)
{\displaystyle {\mathbf {A} }\sim W({\mathbf {\Sigma } },\nu )}
et
Σ Σ -->
{\displaystyle {\mathbf {\Sigma } }}
est une matrice
p
× × -->
p
{\displaystyle p\times p}
, alors
X
=
A
− − -->
1
{\displaystyle \mathbf {X} ={\mathbf {A} }^{-1}}
est de loi de Wishart inverse :
X
∼ ∼ -->
W
− − -->
1
(
Σ Σ -->
− − -->
1
,
ν ν -->
)
{\displaystyle \mathbf {X} \sim W^{-1}({\mathbf {\Sigma } }^{-1},\nu )}
[ 2] .
Lois marginales et conditionnelles
Supposons que
A
∼ ∼ -->
W
− − -->
1
(
Ψ Ψ -->
,
ν ν -->
)
{\displaystyle {\mathbf {A} }\sim W^{-1}({\mathbf {\Psi } },\nu )}
est de loi de Wishart inverse. Séparons convenablement en deux matrices
A
{\displaystyle {\mathbf {A} }}
et
Ψ Ψ -->
{\displaystyle {\mathbf {\Psi } }}
:
A
=
[
A
11
A
12
A
21
A
22
]
,
Ψ Ψ -->
=
[
Ψ Ψ -->
11
Ψ Ψ -->
12
Ψ Ψ -->
21
Ψ Ψ -->
22
]
{\displaystyle {\mathbf {A} }={\begin{bmatrix}\mathbf {A} _{11}&\mathbf {A} _{12}\\\mathbf {A} _{21}&\mathbf {A} _{22}\end{bmatrix}},\;{\mathbf {\Psi } }={\begin{bmatrix}\mathbf {\Psi } _{11}&\mathbf {\Psi } _{12}\\\mathbf {\Psi } _{21}&\mathbf {\Psi } _{22}\end{bmatrix}}}
où
A
i
j
{\displaystyle {\mathbf {A} _{ij}}}
et
Ψ Ψ -->
i
j
{\displaystyle {\mathbf {\Psi } _{ij}}}
sont des matrices
p
i
× × -->
p
j
{\displaystyle p_{i}\times p_{j}}
, alors on obtient
A
11
{\displaystyle {\mathbf {A} _{11}}}
est indépendant de
A
11
− − -->
1
A
12
{\displaystyle {\mathbf {A} }_{11}^{-1}{\mathbf {A} }_{12}}
et de
A
22
⋅ ⋅ -->
1
{\displaystyle {\mathbf {A} }_{22\cdot 1}}
, où
A
22
⋅ ⋅ -->
1
=
A
22
− − -->
A
21
A
11
− − -->
1
A
12
{\displaystyle {\mathbf {A} _{22\cdot 1}}={\mathbf {A} }_{22}-{\mathbf {A} }_{21}{\mathbf {A} }_{11}^{-1}{\mathbf {A} }_{12}}
est le complément de Schur de
A
11
{\displaystyle {\mathbf {A} _{11}}}
dans
A
{\displaystyle {\mathbf {A} }}
;
A
11
∼ ∼ -->
W
− − -->
1
(
Ψ Ψ -->
11
,
ν ν -->
− − -->
p
2
)
{\displaystyle {\mathbf {A} _{11}}\sim W^{-1}({\mathbf {\Psi } _{11}},\nu -p_{2})}
;
A
11
− − -->
1
A
12
|
A
22
⋅ ⋅ -->
1
∼ ∼ -->
M
N
p
1
× × -->
p
2
(
Ψ Ψ -->
11
− − -->
1
Ψ Ψ -->
12
,
A
22
⋅ ⋅ -->
1
⊗ ⊗ -->
Ψ Ψ -->
11
− − -->
1
)
{\displaystyle {\mathbf {A} }_{11}^{-1}{\mathbf {A} }_{12}|{\mathbf {A} }_{22\cdot 1}\sim MN_{p_{1}\times p_{2}}({\mathbf {\Psi } }_{11}^{-1}{\mathbf {\Psi } }_{12},{\mathbf {A} }_{22\cdot 1}\otimes {\mathbf {\Psi } }_{11}^{-1})}
, où
M
N
p
× × -->
q
(
⋅ ⋅ -->
,
⋅ ⋅ -->
)
{\displaystyle MN_{p\times q}(\cdot ,\cdot )}
est la loi normale multidimensionnelle ;
A
22
⋅ ⋅ -->
1
∼ ∼ -->
W
− − -->
1
(
Ψ Ψ -->
22
⋅ ⋅ -->
1
,
ν ν -->
)
{\displaystyle {\mathbf {A} }_{22\cdot 1}\sim W^{-1}({\mathbf {\Psi } }_{22\cdot 1},\nu )}
Moments
Cette section est basée sur l'article [Press, 1982][ 3] , après avoir reparamétré le degré de liberté pour être consistent avec la définition de la densité donnée ci-dessus.
La moyenne est[ 2] :
E
(
X
)
=
Ψ Ψ -->
ν ν -->
− − -->
p
− − -->
1
.
{\displaystyle E(\mathbf {X} )={\frac {\mathbf {\Psi } }{\nu -p-1}}.}
La variance de chaque élément de
X
{\displaystyle \mathbf {X} }
est :
Var
-->
(
x
i
j
)
=
(
ν ν -->
− − -->
p
+
1
)
ψ ψ -->
i
j
2
+
(
ν ν -->
− − -->
p
− − -->
1
)
ψ ψ -->
i
i
ψ ψ -->
j
j
(
ν ν -->
− − -->
p
)
(
ν ν -->
− − -->
p
− − -->
1
)
2
(
ν ν -->
− − -->
p
− − -->
3
)
{\displaystyle \operatorname {Var} (x_{ij})={\frac {(\nu -p+1)\psi _{ij}^{2}+(\nu -p-1)\psi _{ii}\psi _{jj}}{(\nu -p)(\nu -p-1)^{2}(\nu -p-3)}}}
a variance de la diagonale utile la même formule que ci-dessus avec
i
=
j
{\displaystyle i=j}
, ce qui se simplifie en :
Var
-->
(
x
i
i
)
=
2
ψ ψ -->
i
i
2
(
ν ν -->
− − -->
p
− − -->
1
)
2
(
ν ν -->
− − -->
p
− − -->
3
)
.
{\displaystyle \operatorname {Var} (x_{ii})={\frac {2\psi _{ii}^{2}}{(\nu -p-1)^{2}(\nu -p-3)}}.}
Liens avec d'autres lois
Une version unidimensionnelle de la loi de Wishart inverse est la loi inverse-gamma . Avec
p
=
1
{\displaystyle p=1}
, c'est-à-dire unidimensionnel,
α α -->
=
ν ν -->
/
2
{\displaystyle \alpha =\nu /2}
,
β β -->
=
Ψ Ψ -->
/
2
{\displaystyle \beta =\mathbf {\Psi } /2}
et
x
=
X
{\displaystyle x=\mathbf {X} }
, la densité de probabilité de la loi de Wishart inverse devient
p
(
x
|
α α -->
,
β β -->
)
=
β β -->
α α -->
x
− − -->
α α -->
− − -->
1
exp
-->
(
− − -->
β β -->
/
x
)
Γ Γ -->
1
(
α α -->
)
.
{\displaystyle p(x|\alpha ,\beta )={\frac {\beta ^{\alpha }\,x^{-\alpha -1}\exp(-\beta /x)}{\Gamma _{1}(\alpha )}}.}
c'est-à-dire, la loi inverse-gamma où
Γ Γ -->
1
(
⋅ ⋅ -->
)
{\displaystyle \Gamma _{1}(\cdot )}
est la fonction gamma classique.
La loi de Wishart inverse est un cas particulier de la loi gamma inverse multidimensionnelle .
Références
↑ A. O'Hagan, and J. J. Forster, Kendall's Advanced Theory of Statistics : Bayesian Inference , vol. 2B, Arnold, 2004 , 2e éd. (ISBN 0-340-80752-0 )
↑ a et b Kanti V. Mardia, J. T. Kent and J. M. Bibby, Multivariate Analysis , Academic Press , 1979 (ISBN 0-12-471250-9 )
↑ (en) S.J. Press, Applied Multivariate Analysis , New York, Dover Publications, 1982