Функції випадкових величин — це один з основних розділів теорії ймовірностей та математичної статистики .
Означення
Нехай на ймовірносному просторі
(
Ω Ω -->
,
F
,
P
)
{\displaystyle (\Omega ,{\mathcal {F}},\mathbb {P} )}
задана випадкова величина
ξ ξ -->
(
ω ω -->
)
{\displaystyle \xi (\omega )}
, розглянемо функцію дійсного аргументу, область визначення якої включає в себе усі можливі значення заданої випадкової величини. Тоді випадкову величину, яка кожній елементарній події
ω ω -->
{\displaystyle \omega }
з простору елементарних подій ставить у відповідніcть число
θ θ -->
(
ω ω -->
)
=
f
(
ξ ξ -->
(
ω ω -->
)
)
{\displaystyle \theta (\omega )=f(\xi (\omega ))}
— називають функцією від однієї випадкової величини.
Зауваження: якщо випадкова величина, яка є аргументом функції, дискретна, то функція від цієї випадкової величини завжди буде дискретною випадковою величиною . А якщо неперервна — то відповідна випадкова величина
θ θ -->
{\displaystyle \theta }
може бути як дискретною так і неперервною, все залежить від функціональної залежності відповідних випадкових величин.
Приклад:
ξ ξ -->
{\displaystyle \xi }
має стандартний гаусівський розподіл ;
θ θ -->
=
sgn
-->
(
ξ ξ -->
)
;
{\displaystyle \theta =\operatorname {sgn}(\xi );}
Тоді розподіл
θ θ -->
{\displaystyle \theta }
буде мати вигляд:
θ θ -->
{\displaystyle \theta }
− − -->
1
{\displaystyle -1}
1
{\displaystyle 1}
P
{\displaystyle P}
1
2
{\displaystyle {\frac {1}{2}}}
1
2
{\displaystyle {\frac {1}{2}}}
Дискретний випадок
Розглянемо спочатку дискретну випадкову величину , закон розподілу якої має вигляд:
ξ ξ -->
{\displaystyle \xi }
х1
х2
… … -->
{\displaystyle \dots }
хn
р
p1
p2
… … -->
{\displaystyle \dots }
pn
Подія (
ξ ξ -->
=
x
i
{\displaystyle \xi =x_{i}}
) настає з імовірністю
p
i
{\displaystyle p_{i}}
, з цією ж ймовірністю
η η -->
{\displaystyle \eta }
набуває значення
y
i
=
f
(
x
i
)
{\displaystyle y_{i}=f(x_{i})}
. Тому закон розподілу випадкової величини
η η -->
=
f
(
ξ ξ -->
)
{\displaystyle \eta =f(\xi )}
такий:
η η -->
{\displaystyle \eta }
ƒ(х1 )
ƒ(х2 )
… … -->
{\displaystyle \dots }
ƒ(хn )
р
p1
p2
… … -->
{\displaystyle \dots }
pn
Якщо існує декілька значень
x
i
{\displaystyle x_{i}}
, для яких
f
(
x
i
)
{\displaystyle f(x_{i})}
одне і те саме, то всі такі випадки об'єднуються в один, якому відповідає за теоремою додавання ймовірність , що дорівнює сумі ймовірностей об'єднуваних подій .
Неперервний випадок
Приклад:
Нехай
X
≃ ≃ -->
U
(
0
,
1
)
{\displaystyle X\simeq U(0,1)}
, і покладемо
Y
=
X
2
{\displaystyle Y=X^{2}}
. Тоді
F
Y
(
y
)
=
P
(
Y
≤ ≤ -->
y
)
=
P
(
X
2
≤ ≤ -->
y
)
=
P
(
X
≤ ≤ -->
y
)
=
F
X
(
y
)
.
{\displaystyle F_{Y}(y)=P(Y\leq y)=P(X^{2}\leq y)=P(X\leq {\sqrt {y}})=F_{X}({\sqrt {y}}).}
Диференціюючи даний вираз, маємо
f
Y
(
y
)
=
f
X
(
y
)
1
2
y
=
1
2
y
,
0
<
y
<
1
,
{\displaystyle f_{Y}(y)=f_{X}({\sqrt {y}}){\frac {1}{2{\sqrt {y}}}}={\frac {1}{2{\sqrt {y}}}},\qquad 0<y<1,}
(і
f
Y
(
y
)
=
0
{\displaystyle f_{Y}(y)=0}
в іншому випадку).[ 1]
Приклад:
Нехай
X
≃ ≃ -->
U
(
0
,
1
)
{\displaystyle X\simeq U(0,1)}
, і нехай
Y
=
− − -->
log
-->
X
{\displaystyle Y=-\operatorname {log} X}
. Тоді
F
Y
(
y
)
=
P
(
Y
≤ ≤ -->
y
)
=
P
(
− − -->
log
-->
X
≤ ≤ -->
y
)
=
P
(
X
≥ ≥ -->
e
− − -->
y
)
=
=
1
− − -->
F
X
(
e
− − -->
y
)
=
1
− − -->
e
− − -->
y
,
y
>
0
,
{\displaystyle {\begin{aligned}F_{Y}(y)&=P(Y\leq y)=P(-\operatorname {log} X\leq y)=P(X\geq e^{-y})=\\&=1-F_{X}(e^{-y})=1-e^{-y},\qquad y>0,\end{aligned}}}
не важко помітити, що
Y
≃ ≃ -->
E
x
p
(
1
)
{\displaystyle Y\simeq Exp(1)}
(або взявши похідну отримаємо
f
Y
(
y
)
=
e
− − -->
y
{\displaystyle f_{Y}(y)=e^{-y}}
, для
y
>
0
{\displaystyle y>0}
).
Нехай
X
{\displaystyle X}
має довільний неперервний розподіл , і припустимо, що
g
{\displaystyle g}
диференційовна та строго зростає (обернена функція
g
− − -->
1
{\displaystyle g^{-1}}
існує та єдина). Покладемо
Y
=
g
(
X
)
{\displaystyle Y=g(X)}
. Обчислення, подібні до наведених вище, дають нам
F
Y
(
y
)
=
P
(
g
(
X
)
≤ ≤ -->
y
)
=
P
(
X
≤ ≤ -->
g
− − -->
1
(
y
)
)
=
F
X
(
g
− − -->
1
(
y
)
)
{\displaystyle F_{Y}(y)=P(g(X)\leq y)=P(X\leq g^{-1}(y))=F_{X}(g^{-1}(y))}
та
f
Y
(
y
)
=
f
X
(
g
− − -->
1
(
y
)
)
⋅ ⋅ -->
d
d
y
g
− − -->
1
(
y
)
.
{\displaystyle f_{Y}(y)=f_{X}(g^{-1}(y))\cdot {\frac {d}{dy}}g^{-1}(y).}
Якби
g
{\displaystyle g}
була строго спадною , ми б отримали
f
Y
(
y
)
=
− − -->
f
X
(
g
− − -->
1
(
y
)
)
⋅ ⋅ -->
d
d
y
g
− − -->
1
(
y
)
.
{\displaystyle f_{Y}(y)=-f_{X}(g^{-1}(y))\cdot {\frac {d}{dy}}g^{-1}(y).}
(Зверніть увагу, що
f
Y
(
y
)
>
0
{\textstyle f_{Y}(y)>0}
, так як
d
g
− − -->
1
(
y
)
/
d
y
<
0
{\textstyle dg^{-1}(y)/dy<0}
).
В решті решт, ми показали, що якщо
g
{\textstyle g}
строго монотонна , то
f
Y
(
y
)
=
f
X
(
g
− − -->
1
(
y
)
)
⋅ ⋅ -->
|
d
d
y
g
− − -->
1
(
y
)
|
.
{\displaystyle f_{Y}(y)=f_{X}(g^{-1}(y))\cdot |{\frac {d}{dy}}g^{-1}(y)|.}
[ 1]
Теорема про перетворення
Нехай
X
{\displaystyle {\textbf {X}}}
— це
n
{\displaystyle n}
-мірний неперервний випадковий вектор , який має щільність
f
X
(
x
)
{\displaystyle f_{\textbf {X}}({\textbf {x}})}
, і припустимо, що
X
{\displaystyle {\textbf {X}}}
має множину значень
S
⊂ ⊂ -->
R
n
{\displaystyle S\subset \mathbb {R} ^{n}}
. Нехай
g
=
(
g
1
,
g
2
,
… … -->
,
g
n
)
{\displaystyle g=(g_{1},g_{2},\ldots ,g_{n})}
— бієкція від
S
{\displaystyle S}
до деякої множини
T
⊂ ⊂ -->
R
n
{\displaystyle T\subset \mathbb {R} ^{n}}
, і розглянемо
n
{\displaystyle n}
-мірний випадковий вектор
Y
=
g
(
X
)
.
{\displaystyle {\textbf {Y}}=g({\textbf {X}}).}
Це означає, що ми розглядаємо
n
{\textstyle n}
випадкових величин
Y
1
=
g
1
(
X
1
,
X
2
,
… … -->
,
X
n
)
,
{\displaystyle Y_{1}=g_{1}(X_{1},X_{2},\ldots ,X_{n}),}
Y
2
=
g
2
(
X
1
,
X
2
,
… … -->
,
X
n
)
,
{\displaystyle Y_{2}=g_{2}(X_{1},X_{2},\ldots ,X_{n}),}
⋮ ⋮ -->
{\displaystyle \vdots }
Y
n
=
g
n
(
X
1
,
X
2
,
… … -->
,
X
n
)
.
{\displaystyle Y_{n}=g_{n}(X_{1},X_{2},\ldots ,X_{n}).}
Зрештою, припустимо, що
g
{\displaystyle g}
та її обернена функція є неперервно диференційованими (для того щоб якобіан
J
=
|
d
-->
(
x
)
/
d
-->
(
y
)
|
{\displaystyle {\textbf {J}}=|\operatorname {d} ({\textbf {x}})/\operatorname {d} ({\textbf {y}})|}
був коректно визначений).
Щільність
Y
{\displaystyle {\textbf {Y}}}
дорівнює
f
Y
(
y
)
=
{
f
X
(
h
1
(
y
)
,
h
2
(
y
)
,
… … -->
,
h
n
(
y
)
)
⋅ ⋅ -->
|
J
|
,
y
∈ ∈ -->
T
,
0
y
∉ ∉ -->
T
,
{\displaystyle f_{\textbf {Y}}({\textbf {y}})={\begin{cases}f_{\textbf {X}}(h_{1}({\textbf {y}}),h_{2}({\textbf {y}}),\ldots ,h_{n}({\textbf {y}}))\cdot |{\textbf {J}}|,&{\textbf {y}}\in T,\\0&{\textbf {y}}\notin T,\end{cases}}}
де
h
{\displaystyle h}
обернена (єдина) функція до
g
{\displaystyle g}
, і де
J
=
|
d
-->
(
x
)
d
-->
(
y
)
|
=
|
∂ ∂ -->
x
1
∂ ∂ -->
y
1
∂ ∂ -->
x
1
∂ ∂ -->
y
2
⋯ ⋯ -->
∂ ∂ -->
x
1
∂ ∂ -->
y
n
∂ ∂ -->
x
2
∂ ∂ -->
y
1
∂ ∂ -->
x
2
∂ ∂ -->
y
2
⋯ ⋯ -->
∂ ∂ -->
x
2
∂ ∂ -->
y
n
⋮ ⋮ -->
⋮ ⋮ -->
⋱ ⋱ -->
⋮ ⋮ -->
∂ ∂ -->
x
n
∂ ∂ -->
y
1
∂ ∂ -->
x
n
∂ ∂ -->
y
2
⋯ ⋯ -->
∂ ∂ -->
x
n
∂ ∂ -->
y
n
|
;
{\displaystyle {\textbf {J}}=\left|{\frac {\operatorname {d} ({\textbf {x}})}{\operatorname {d} ({\textbf {y}})}}\right|={\begin{vmatrix}{\frac {\partial x_{1}}{\partial y_{1}}}&{\frac {\partial x_{1}}{\partial y_{2}}}&\cdots &{\frac {\partial x_{1}}{\partial y_{n}}}\\{\frac {\partial x_{2}}{\partial y_{1}}}&{\frac {\partial x_{2}}{\partial y_{2}}}&\cdots &{\frac {\partial x_{2}}{\partial y_{n}}}\\\vdots &\vdots &\ddots &\vdots \\{\frac {\partial x_{n}}{\partial y_{1}}}&{\frac {\partial x_{n}}{\partial y_{2}}}&\cdots &{\frac {\partial x_{n}}{\partial y_{n}}}\end{vmatrix}};}
тобто,
J
{\displaystyle {\textbf {J}}}
є якобіаном .[ 1]
Твердження теореми одразу випливає з наступного результату:
Нехай
Z
{\displaystyle {\textbf {Z}}}
це
n
{\displaystyle n}
-мірний неперервний випадковий вектор . Якщо для кожної
B
∈ ∈ -->
R
n
{\displaystyle B\in \mathbb {R} ^{n}}
,
P
(
Z
∈ ∈ -->
B
)
=
∫ ∫ -->
B
h
(
x
)
d
-->
x
,
{\displaystyle P({\textbf {Z}}\in B)=\int _{B}h({\textbf {x}})\operatorname {d} {\textbf {x}},}
тоді
h
{\displaystyle h}
— щільність
Z
{\textbf {Z}}
.[ 1]
◼ ◼ -->
{\textstyle \blacksquare }
Див. також
Зовнішні посилання
Hazewinkel, Michiel, ред. (2001), variable Random variable , Математична енциклопедія , Springer , ISBN 978-1-55608-010-4
Zukerman, Moshe (2014), Introduction to Queueing Theory and Stochastic Teletraffic Models (PDF) , arXiv :1307.2968
Zukerman, Moshe (2014), Basic Probability Topics (PDF)
Джерела
↑ а б в г Springer .