Polynôme de Neumann
En mathématiques, les polynômes de Neumann , introduits par Carl Neumann pour le cas particulier
α α -->
=
0
{\displaystyle \alpha =0}
, sont une suite de polynômes dans
1
/
t
{\displaystyle 1/t}
utilisé pour le développement de fonctions en termes de fonctions de Bessel [ 1] .
Les premiers polynômes sont
O
0
(
α α -->
)
(
t
)
=
1
t
,
{\displaystyle O_{0}^{(\alpha )}(t)={\frac {1}{t}},}
O
1
(
α α -->
)
(
t
)
=
2
α α -->
+
1
t
2
,
{\displaystyle O_{1}^{(\alpha )}(t)=2{\frac {\alpha +1}{t^{2}}},}
O
2
(
α α -->
)
(
t
)
=
2
+
α α -->
t
+
4
(
2
+
α α -->
)
(
1
+
α α -->
)
t
3
,
{\displaystyle O_{2}^{(\alpha )}(t)={\frac {2+\alpha }{t}}+4{\frac {(2+\alpha )(1+\alpha )}{t^{3}}},}
O
3
(
α α -->
)
(
t
)
=
2
(
1
+
α α -->
)
(
3
+
α α -->
)
t
2
+
8
(
1
+
α α -->
)
(
2
+
α α -->
)
(
3
+
α α -->
)
t
4
,
{\displaystyle O_{3}^{(\alpha )}(t)=2{\frac {(1+\alpha )(3+\alpha )}{t^{2}}}+8{\frac {(1+\alpha )(2+\alpha )(3+\alpha )}{t^{4}}},}
O
4
(
α α -->
)
(
t
)
=
(
1
+
α α -->
)
(
4
+
α α -->
)
2
t
+
4
(
1
+
α α -->
)
(
2
+
α α -->
)
(
4
+
α α -->
)
t
3
+
16
(
1
+
α α -->
)
(
2
+
α α -->
)
(
3
+
α α -->
)
(
4
+
α α -->
)
t
5
.
{\displaystyle O_{4}^{(\alpha )}(t)={\frac {(1+\alpha )(4+\alpha )}{2t}}+4{\frac {(1+\alpha )(2+\alpha )(4+\alpha )}{t^{3}}}+16{\frac {(1+\alpha )(2+\alpha )(3+\alpha )(4+\alpha )}{t^{5}}}.}
Une forme généralisée du polynôme est[ 2]
O
n
(
α α -->
)
(
t
)
=
α α -->
+
n
2
α α -->
∑ ∑ -->
k
=
0
⌊ ⌊ -->
n
/
2
⌋ ⌋ -->
(
− − -->
1
)
n
− − -->
k
(
n
− − -->
k
)
!
k
!
(
− − -->
α α -->
n
− − -->
k
)
(
2
t
)
n
+
1
− − -->
2
k
,
{\displaystyle O_{n}^{(\alpha )}(t)={\frac {\alpha +n}{2\alpha }}\sum _{k=0}^{\lfloor n/2\rfloor }(-1)^{n-k}{\frac {(n-k)!}{k!}}{-\alpha \choose n-k}\left({\frac {2}{t}}\right)^{n+1-2k},}
et ils ont comme "fonction génératrice "
(
z
2
)
α α -->
Γ Γ -->
(
α α -->
+
1
)
1
t
− − -->
z
=
∑ ∑ -->
n
=
0
O
n
(
α α -->
)
(
t
)
J
α α -->
+
n
(
z
)
,
{\displaystyle {\frac {\left({\frac {z}{2}}\right)^{\alpha }}{\Gamma (\alpha +1)}}{\frac {1}{t-z}}=\sum _{n=0}O_{n}^{(\alpha )}(t)J_{\alpha +n}(z),}
où J désignent les fonctions de Bessel de première espèce [ 3] .
Approximation par une série de Fourier-Bessel
Pour développer une fonction f sous la forme[ 4]
f
(
z
)
=
∑ ∑ -->
n
=
0
a
n
J
α α -->
+
n
(
z
)
{\displaystyle f(z)=\sum _{n=0}a_{n}J_{\alpha +n}(z)\,}
pour
|
z
|
<
c
{\displaystyle |z|<c}
, on calcule
a
n
=
1
2
π π -->
i
∮ ∮ -->
|
z
|
=
c
′
Γ Γ -->
(
α α -->
+
1
)
(
z
2
)
α α -->
f
(
z
)
O
n
(
α α -->
)
(
z
)
d
z
,
{\displaystyle a_{n}={\frac {1}{2\pi \mathrm {i} }}\oint _{|z|=c'}{\frac {\Gamma (\alpha +1)}{\left({\frac {z}{2}}\right)^{\alpha }}}f(z)O_{n}^{(\alpha )}(z)\,\mathrm {d} z,}
où
c
′
<
c
{\displaystyle c'<c}
et c est la distance entre la singularité la plus proche de
z
− − -->
α α -->
f
(
z
)
{\displaystyle z^{-\alpha }f(z)}
et
z
=
0
{\displaystyle z=0}
.
Exemples
Un exemple est le prolongement
(
1
2
z
)
s
=
Γ Γ -->
(
s
)
⋅ ⋅ -->
∑ ∑ -->
k
=
0
(
− − -->
1
)
k
J
s
+
2
k
(
z
)
(
s
+
2
k
)
(
− − -->
s
k
)
,
{\displaystyle \left({\frac {1}{2}}z\right)^{s}=\Gamma (s)\cdot \sum _{k=0}(-1)^{k}J_{s+2k}(z)(s+2k){-s \choose k},}
ou la formule de Sonine (en) plus générale[ 5]
e
i
γ γ -->
z
=
Γ Γ -->
(
s
)
⋅ ⋅ -->
∑ ∑ -->
k
=
0
i
k
C
k
(
s
)
(
γ γ -->
)
(
s
+
k
)
J
s
+
k
(
z
)
(
z
2
)
s
.
{\displaystyle {\mathrm {e} }^{\mathrm {i} \gamma z}=\Gamma (s)\cdot \sum _{k=0}{\mathrm {i} }^{k}C_{k}^{(s)}(\gamma )(s+k){\frac {J_{s+k}(z)}{\left({\frac {z}{2}}\right)^{s}}}.}
où
C
k
(
s
)
{\displaystyle C_{k}^{(s)}}
est le polynôme de Gegenbauer . Alors,[réf. nécessaire] [Interprétation personnelle ?]
(
z
2
)
2
k
(
2
k
− − -->
1
)
!
J
s
(
z
)
=
∑ ∑ -->
i
=
k
(
− − -->
1
)
i
− − -->
k
(
i
+
k
− − -->
1
2
k
− − -->
1
)
(
i
+
k
+
s
− − -->
1
2
k
− − -->
1
)
(
s
+
2
i
)
J
s
+
2
i
(
z
)
,
{\displaystyle {\frac {\left({\frac {z}{2}}\right)^{2k}}{(2k-1)!}}J_{s}(z)=\sum _{i=k}(-1)^{i-k}{i+k-1 \choose 2k-1}{i+k+s-1 \choose 2k-1}(s+2i)J_{s+2i}(z),}
∑ ∑ -->
n
=
0
t
n
J
s
+
n
(
z
)
=
e
t
z
2
t
s
∑ ∑ -->
j
=
0
(
− − -->
z
2
t
)
j
j
!
γ γ -->
(
j
+
s
,
t
z
2
)
Γ Γ -->
(
j
+
s
)
=
∫ ∫ -->
0
∞ ∞ -->
e
− − -->
z
x
2
2
t
z
x
t
J
s
(
z
1
− − -->
x
2
)
1
− − -->
x
2
s
d
x
,
{\displaystyle \sum _{n=0}t^{n}J_{s+n}(z)={\frac {{\mathrm {e} }^{\frac {tz}{2}}}{t^{s}}}\sum _{j=0}{\frac {\left(-{\frac {z}{2t}}\right)^{j}}{j!}}{\frac {\gamma \left(j+s,{\frac {tz}{2}}\right)}{\,\Gamma (j+s)}}=\int _{0}^{\infty }{\mathrm {e} }^{-{\frac {zx^{2}}{2t}}}{\frac {zx}{t}}{\frac {J_{s}(z{\sqrt {1-x^{2}}})}{{\sqrt {1-x^{2}}}^{s}}}\,\mathrm {d} x,}
la fonction hypergéométrique confluente
M
(
a
,
s
,
z
)
=
Γ Γ -->
(
s
)
∑ ∑ -->
k
=
0
∞ ∞ -->
(
− − -->
1
t
)
k
L
k
(
− − -->
a
− − -->
k
)
(
t
)
J
s
+
k
− − -->
1
(
2
t
z
)
(
t
z
)
s
− − -->
k
− − -->
1
,
{\displaystyle M(a,s,z)=\Gamma (s)\sum _{k=0}^{\infty }\left(-{\frac {1}{t}}\right)^{k}L_{k}^{(-a-k)}(t){\frac {J_{s+k-1}\left(2{\sqrt {tz}}\right)}{({\sqrt {tz}})^{s-k-1}}},}
et en particulier
J
s
(
2
z
)
z
s
=
4
s
Γ Γ -->
(
s
+
1
2
)
π π -->
e
2
i
z
∑ ∑ -->
k
=
0
L
k
(
− − -->
s
− − -->
1
/
2
− − -->
k
)
(
i
t
4
)
(
4
i
z
)
k
J
2
s
+
k
(
2
t
z
)
t
z
2
s
+
k
,
{\displaystyle {\frac {J_{s}(2z)}{z^{s}}}={\frac {4^{s}\Gamma \left(s+{\frac {1}{2}}\right)}{\sqrt {\pi }}}{\mathrm {e} }^{2\mathrm {i} z}\sum _{k=0}L_{k}^{(-s-1/2-k)}\left({\frac {\mathrm {i} t}{4}}\right)(4\mathrm {i} z)^{k}{\frac {J_{2s+k}\left(2{\sqrt {tz}}\right)}{{\sqrt {tz}}^{2s+k}}},}
la formule de décalage d'indice
Γ Γ -->
(
ν ν -->
− − -->
μ μ -->
)
J
ν ν -->
(
z
)
=
Γ Γ -->
(
μ μ -->
+
1
)
∑ ∑ -->
n
=
0
Γ Γ -->
(
ν ν -->
− − -->
μ μ -->
+
n
)
n
!
Γ Γ -->
(
ν ν -->
+
n
+
1
)
(
z
2
)
ν ν -->
− − -->
μ μ -->
+
n
J
μ μ -->
+
n
(
z
)
,
{\displaystyle \Gamma (\nu -\mu )J_{\nu }(z)=\Gamma (\mu +1)\sum _{n=0}{\frac {\Gamma (\nu -\mu +n)}{n!\Gamma (\nu +n+1)}}\left({\frac {z}{2}}\right)^{\nu -\mu +n}J_{\mu +n}(z),}
le développement de Taylor (formule d'addition)
J
s
(
z
2
− − -->
2
u
z
)
(
z
2
− − -->
2
u
z
)
± ± -->
s
=
∑ ∑ -->
k
=
0
(
± ± -->
u
)
k
k
!
J
s
± ± -->
k
(
z
)
z
± ± -->
s
,
{\displaystyle {\frac {J_{s}\left({\sqrt {z^{2}-2uz}}\right)}{\left({\sqrt {z^{2}-2uz}}\right)^{\pm s}}}=\sum _{k=0}{\frac {(\pm u)^{k}}{k!}}{\frac {J_{s\pm k}(z)}{z^{\pm s}}},}
(cf. [ 6] [Pas dans la source] ) et le développement de l'intégrale de la fonction de Bessel,
∫ ∫ -->
J
s
(
z
)
d
z
=
2
∑ ∑ -->
k
=
0
+
∞ ∞ -->
J
s
+
2
k
+
1
(
z
)
,
{\displaystyle \int J_{s}(z)\mathrm {d} z=2\sum _{k=0}^{+\infty }J_{s+2k+1}(z),}
sont du même type.
Voir également
Références
↑ Abramowitz and Stegun, p. 363, 9.1.82 ff.
↑ (en) Yu A. Brychkov et P. C. Sofotasios, « On some properties of the Neumann polynomials », Integral Transforms and Special Functions , vol. 34, no 4, 2023 , p. 316-333 .
↑ (en) M. Lehua, « On Neumann-Bessel series », Approximation Theory & its Applications , vol. 12, 1996 , p. 68–77 (DOI 10.1007/BF02836128 ) .
↑ (en) N. Hayek, P. González-Vera et F. Pérez-Acosta, « Rational approximation to Neumann series of Bessel functions », Numerical Algorithms , vol. 3, 1992 , p. 235–244 (DOI 10.1007/BF02141932 )
↑ (en) A. Erdelyi, W. Magnus, Oberhettinger et F. Tricomi, Higher Transcendental Functions: Volume II (ISBN 978-0070195462 )
↑ (en) Izrail Solomonovich Gradshteyn , Iosif Moiseevich Ryzhik , Yuri Veniaminovich Geronimus , Michail Yulyevich Tseytlin et Jeffrey (trad. Scripta Technica, Inc.), Table of Integrals, Series, and Products , 8, 2015 (1re éd. October 2014) (ISBN 0-12-384933-0 , LCCN 2014010276 ) , « 8.515.1. » , p. 944
Liens externes