Loi de Gauss-Kuzmin
En théorie des probabilités , la loi de Gauss-Kuzmin est une loi de probabilité discrète à support infini qui apparaît comme loi de probabilité asymptotique des coefficients dans le développement en fraction continue d'une variable aléatoire uniforme sur
]
0
,
1
[
{\displaystyle ]0,1[}
[ 3] . Le nom provient de Carl Friedrich Gauss qui considéra cette loi en 1800[ 4] , et de Rodion Kuzmin qui donna une borne pour la vitesse de convergence en 1929[ 5] , [ 6] par l'intermédiaire de la fonction de masse :
p
(
k
)
:=
P
(
X
=
k
)
=
− − -->
log
2
-->
(
1
− − -->
1
(
1
+
k
)
2
)
.
{\displaystyle p(k):=\mathbb {P} (X=k)=-\log _{2}\left(1-{\frac {1}{(1+k)^{2}}}\right)~.}
Théorème de Gauss-Kuzmin
Soit
U
{\displaystyle U}
une variable aléatoire uniforme sur
]
0
,
1
[
{\displaystyle ]0,1[}
et
U
=
1
k
1
+
1
k
2
+
⋯ ⋯ -->
{\displaystyle U={\frac {1}{k_{1}+{\frac {1}{k_{2}+\cdots }}}}}
son développement en fraction continue. Alors
lim
n
→ → -->
∞ ∞ -->
P
{
k
n
=
k
}
=
− − -->
log
2
-->
(
1
− − -->
1
(
k
+
1
)
2
)
.
{\displaystyle \lim _{n\to \infty }\mathbb {P} \left\{k_{n}=k\right\}=-\log _{2}\left(1-{\frac {1}{(k+1)^{2}}}\right)~.}
Ou de manière équivalente, en notant
U
n
=
1
/
(
k
n
+
1
+
1
/
(
k
n
+
2
+
⋯ ⋯ -->
)
)
;
{\displaystyle U_{n}=1/(k_{n+1}+1/(k_{n+2}+\cdots ))~;}
alors
Δ Δ -->
n
(
s
)
:=
P
{
U
n
≤ ≤ -->
s
}
− − -->
log
2
-->
(
1
+
s
)
{\displaystyle \Delta _{n}(s):=\mathbb {P} \left\{U_{n}\leq s\right\}-\log _{2}(1+s)}
converge vers 0 quand
n
{\displaystyle n}
tend vers l'infini.
Vitesse de convergence
En 1928, Kuzmin donne la borne
|
Δ Δ -->
n
(
s
)
|
≤ ≤ -->
C
exp
-->
(
− − -->
α α -->
n
)
{\displaystyle |\Delta _{n}(s)|\leq C\exp(-\alpha {\sqrt {n}})}
.
En 1929, Paul Lévy [ 7] l'améliore en majorant
|
Δ Δ -->
n
(
s
)
|
≤ ≤ -->
C
0
,
7
n
{\displaystyle |\Delta _{n}(s)|\leq C\,0{,}7^{n}}
.
Plus tard, Eduard Wirsing montre[ 8] , [ 9] que pour
λ λ -->
=
0,303
66
… … -->
{\displaystyle \lambda =0{,}30366\dots }
(la constante de Gauss-Kuzmin-Wirsing [ 10] ), la limite
Ψ Ψ -->
(
s
)
=
lim
n
→ → -->
∞ ∞ -->
Δ Δ -->
n
(
s
)
(
− − -->
λ λ -->
)
n
{\displaystyle \Psi (s)=\lim _{n\to \infty }{\frac {\Delta _{n}(s)}{(-\lambda )^{n}}}}
existe pour tout
s
∈ ∈ -->
[
0
,
1
]
{\displaystyle s\in [0,1]}
, et la fonction
Ψ Ψ -->
{\displaystyle \Psi }
est analytique et satisfait
Ψ Ψ -->
(
0
)
=
Ψ Ψ -->
(
1
)
=
0
{\displaystyle \Psi (0)=\Psi (1)=0}
. D'autres bornes ont été établies par K. I. Babenko [ 11] .
Article connexe
Notes et références
↑ (en) N. Blachman , « The continued fraction as an information source (Corresp.) », IEEE Transactions on Information Theory , vol. 30, no 4, 1984 , p. 671–674 (DOI 10.1109/TIT.1984.1056924 )
↑ (en) P. Kornerup et D. Matula , « LCF: A lexicographic binary representation of the rationals », Journal of Universal Computer Science , vol. 1, juillet 1995 , p. 484–503
↑ (en) Eric W. Weisstein , « Gauss–Kuzmin Distribution », sur MathWorld
↑ (en) C.F. Gauss , Werke Sammlung , vol. 10/1 (lire en ligne ) , p. 552–556
↑ (en) R.O. Kuzmin , « On a problem of Gauss », DAN SSSR , 1928 , p. 375–380
↑ (en) R.O. Kuzmin , « On a problem of Gauss », Atti del Congresso Internazionale dei Matematici, Bologna , vol. 6, 1932 , p. 83–89
↑ P. Lévy , « Sur les lois de probabilité dont dépendent les quotients complets et incomplets d'une fraction continue », Bulletin de la Société mathématique de France , vol. 57, 1929 , p. 178–194 (JFM 55.0916.02 , lire en ligne )
↑ (en) W. A. Coppel, Number Theory : An Introduction to Mathematics , Springer, 2000 , 610 p. (ISBN 978-0-387-89485-0 , lire en ligne ) , p. 480 .
↑ (en) E. Wirsing , « On the theorem of Gauss–Kusmin–Lévy and a Frobenius-type theorem for function spaces », Acta Arithmetica , vol. 24, 1974 , p. 507–528
↑ (en) Eric W. Weisstein , « Gauss-Kuzmin-Wirsing Constant », sur MathWorld .
↑ (en) K. I. Babenko , « On a problem of Gauss », Soviet Math. Dokl. , vol. 19, 1978 , p. 136–140 .