Plotagem da função densidade de probabilidade de distribuições gama
Plotagem da função de distribuição acumulada de distribuições gama
Parâmetros
k
>
0
{\displaystyle k>0}
θ θ -->
>
0
{\displaystyle \theta >0}
Suporte
x
∈ ∈ -->
(
0
,
∞ ∞ -->
)
{\displaystyle x\in (0,\infty )}
f.d.p.
1
Γ Γ -->
(
k
)
θ θ -->
k
x
k
− − -->
1
e
− − -->
x
θ θ -->
{\displaystyle {\frac {1}{\Gamma (k)\theta ^{k}}}x^{k\,-\,1}e^{-{\frac {x}{\theta }}}}
f.d.a.
1
Γ Γ -->
(
k
)
γ γ -->
(
k
,
x
θ θ -->
)
{\displaystyle {\frac {1}{\Gamma (k)}}\gamma \left(k,\,{\frac {x}{\theta }}\right)}
Média
E
[
X
]
=
k
θ θ -->
{\displaystyle \mathbf {E} [X]=k\theta }
E
[
ln
-->
X
]
=
ψ ψ -->
(
k
)
+
ln
-->
(
θ θ -->
)
{\displaystyle \mathbf {E} [\ln X]=\psi (k)+\ln(\theta )}
(veja função digama )
Moda
(
k
− − -->
1
)
θ θ -->
{\displaystyle (k-1)\theta }
para
k
≥ ≥ -->
1
{\displaystyle k\geq 1}
Variância
Var
-->
[
X
]
=
k
θ θ -->
2
{\displaystyle \operatorname {Var} [X]=k\theta ^{2}}
Var
-->
[
ln
-->
X
]
=
ψ ψ -->
1
(
k
)
{\displaystyle \operatorname {Var} [\ln X]=\psi _{1}(k)}
(veja função trigama )
Obliquidade
2
k
{\displaystyle {\frac {2}{\sqrt {k}}}}
Curtose
6
k
{\displaystyle {\frac {6}{k}}}
Entropia
k
+
ln
-->
θ θ -->
+
ln
-->
[
Γ Γ -->
(
k
)
]
+
(
1
− − -->
k
)
ψ ψ -->
(
k
)
{\displaystyle {\begin{aligned}k&+\ln \theta +\ln[\Gamma (k)]\\&+(1-k)\psi (k)\end{aligned}}}
Função Geradora de Momentos
(
1
− − -->
θ θ -->
t
)
− − -->
k
{\displaystyle (1-\theta t)^{-k}}
para
t
<
1
θ θ -->
{\displaystyle t<{\frac {1}{\theta }}}
Função Característica
(
1
− − -->
θ θ -->
i
t
)
− − -->
k
{\displaystyle (1-\theta it)^{-k}}
Em teoria das probabilidades e estatística , a distribuição gama é uma família de distribuições contínuas de probabilidade de dois parâmetros. Diversos tipos de distribuições são dependentes, ou são casos específicos da distribuição gama, como a distribuição exponencial e a distribuição qui-quadrado . A distribuição gama é usada para modelar valores de dados positivos que são assimétricos à direita e maiores que 0. Ela é comumente usada em estudos de sobrevivência de confiabilidade.
Existem três diferentes parametrizações no uso comum:
Com um parâmetro de forma
k
{\displaystyle k}
e um parâmetro de escala
θ θ -->
{\displaystyle \theta }
.
Com um parâmetro de forma
α α -->
=
k
{\displaystyle \alpha =k}
e um parâmetro de escala inversa
β β -->
=
1
θ θ -->
{\displaystyle \beta ={\frac {1}{\theta }}}
, chamado parâmetro de taxa.
Com um parâmetro de forma
k
{\displaystyle k}
e um parâmetro média
μ μ -->
=
k
β β -->
{\displaystyle \mu ={\frac {k}{\beta }}}
.
Em cada uma dessas formas, ambos os parâmetros são números reais positivos.
ra a qual
E
[
X
]
=
k
θ θ -->
=
α α -->
β β -->
{\displaystyle E[X]=k\theta ={\frac {\alpha }{\beta }}}
é fixada e maior que zero, e
E
[
l
n
(
X
)
]
=
ψ ψ -->
(
k
)
+
l
n
(
θ θ -->
)
=
ψ ψ -->
(
α α -->
)
− − -->
l
n
(
β β -->
)
{\displaystyle E[ln(X)]=\psi (k)+ln(\theta )=\psi (\alpha )-ln(\beta )}
é fixado (
ψ ψ -->
{\displaystyle \psi }
é a função digama ).[ 1]
Dentro da distribuição gama uma importante propriedade é o fato de que à medida que
θ θ -->
{\displaystyle \theta }
aumenta, essa distribuição se aproxima de uma Normal com média µ e variância
θ θ -->
{\displaystyle \theta }
µ²= µ²/v
Por exemplo, a distribuição gama pode descrever o tempo de um componente elétrico de falhar. A maioria dos componentes elétricos de um determinado tipo falharão na mesma época, mas alguns vão demorar muito tempo para falhar.
Parametrização
A parametrização com
k
{\displaystyle k}
e
θ θ -->
{\displaystyle \theta }
parece ser mais comum em econometria e em outros campos de aplicação, onde por exemplo, a distribuição gama é frequentemente usada para modelar tempos de espera. A parametrização com
α α -->
{\displaystyle \alpha }
e
β β -->
{\displaystyle \beta }
é mais comum em estatística bayesiana , onde a distribuição gama é usada como uma distribuição conjugada a priori para vários tipos de parâmetros de escala inversa (também conhecido como parâmetros de taxa), assim como o
λ λ -->
{\displaystyle \lambda }
de uma distribuição exponencial ou uma distribuição de Poisson [ 2] .
Se
k
{\displaystyle k}
é um inteiro positivo, então a distribuição representa uma distribuição Erlang , isto é, a soma de
k
{\displaystyle k}
variáveis aleatórias exponencialmente distribuídas, cada uma das quais tem média
θ θ -->
{\displaystyle \theta }
Caracterização usando
α α -->
{\displaystyle \alpha }
e taxa
β β -->
{\displaystyle \beta }
A distribuição gama pode ser parametrizadas em termos de um parâmetro de forma
α α -->
=
k
{\displaystyle \alpha =k}
e o parâmetro de escala inversa
β β -->
=
1
θ θ -->
{\displaystyle \beta ={\frac {1}{\theta }}}
, chamado parâmetro de taxa. Uma variável aleatória
X
{\displaystyle X}
que é distribuída sob gama com forma
α α -->
{\displaystyle \alpha }
e taxa
β β -->
{\displaystyle \beta }
é denotada
X
∼ ∼ -->
Γ Γ -->
(
α α -->
,
β β -->
)
≡ ≡ -->
Gama
(
α α -->
,
β β -->
)
{\displaystyle X\sim \Gamma (\alpha ,\beta )\equiv {\textrm {Gama}}(\alpha ,\beta )}
A função densidade de probabilidade correspondente na parametrização forma-taxa é
f
(
x
;
α α -->
,
β β -->
)
=
β β -->
α α -->
x
α α -->
− − -->
1
e
− − -->
β β -->
x
Γ Γ -->
(
α α -->
)
para
x
>
0
e
α α -->
,
β β -->
>
0
{\displaystyle f(x;\alpha ,\beta )={\frac {\beta ^{\alpha }x^{\alpha -1}e^{-\beta x}}{\Gamma (\alpha )}}\quad {\text{ para }}x>0{\text{ e }}\alpha ,\beta >0}
,
onde
Γ Γ -->
(
α α -->
)
{\displaystyle {\Gamma (\alpha )}}
é uma função gama completa. Para todos os inteiros positivos
Γ Γ -->
(
α α -->
)
=
(
α α -->
− − -->
1
)
!
{\displaystyle \Gamma (\alpha )=(\alpha -1)!}
A função de distribuição acumulada é a função gama regularizada:
F
(
x
;
α α -->
,
β β -->
)
=
∫ ∫ -->
0
x
f
(
u
;
α α -->
,
β β -->
)
d
u
=
γ γ -->
(
α α -->
,
β β -->
x
)
Γ Γ -->
(
α α -->
)
{\displaystyle F(x;\alpha ,\beta )=\int _{0}^{x}f(u;\alpha ,\beta )\,du={\frac {\gamma (\alpha ,\beta x)}{\Gamma (\alpha )}}}
onde
γ γ -->
(
α α -->
,
β β -->
x
)
{\displaystyle \gamma (\alpha ,\beta x)}
é a função gama incompleta inferior.
Se
α α -->
{\displaystyle \alpha }
é um inteiro positivo (isto é, a distribuição é uma Distribuição Erlang), a função de distribuição acumulada tem a seguinte expansão em séries:[ 3]
F
(
x
;
α α -->
,
β β -->
)
=
1
− − -->
∑ ∑ -->
i
=
0
α α -->
− − -->
1
(
β β -->
x
)
i
i
!
e
− − -->
β β -->
x
=
e
− − -->
β β -->
x
∑ ∑ -->
i
=
α α -->
∞ ∞ -->
(
β β -->
x
)
i
i
!
{\displaystyle F(x;\alpha ,\beta )=1-\sum _{i=0}^{\alpha -1}{\frac {(\beta x)^{i}}{i!}}e^{-\beta x}=e^{-\beta x}\sum _{i=\alpha }^{\infty }{\frac {(\beta x)^{i}}{i!}}}
Caracterização usando a forma
k
{\displaystyle k}
e escala
θ θ -->
{\displaystyle \theta }
Uma variável aleatória
X
{\displaystyle X}
que é distribuída sob gama com parâmetro de forma
k
{\displaystyle k}
e escala
θ θ -->
{\displaystyle \theta }
é denotada por
X
∼ ∼ -->
Γ Γ -->
(
k
,
θ θ -->
)
≡ ≡ -->
Gama
(
k
,
θ θ -->
)
{\displaystyle X\sim \Gamma (k,\theta )\equiv {\textrm {Gama}}(k,\theta )}
Ilustração de uma função densidade de probabilidade para valores de parâmetros
k
{\displaystyle k}
e
x
{\displaystyle x}
com
θ θ -->
{\displaystyle \theta }
ajustado para 1, 2,3,4,5 e 6.
A função densidade de probabilidade usando a parametrização forma-escala é
f
(
x
;
k
,
θ θ -->
)
=
x
k
− − -->
1
e
− − -->
x
θ θ -->
θ θ -->
k
Γ Γ -->
(
k
)
para
x
>
0
e
k
,
θ θ -->
>
0.
{\displaystyle f(x;k,\theta )={\frac {x^{k-1}e^{-{\frac {x}{\theta }}}}{\theta ^{k}\Gamma (k)}}\quad {\text{ para }}x>0{\text{ e }}k,\theta >0.}
Aqui
Γ Γ -->
(
k
)
{\displaystyle \Gamma (k)}
é a função gama avaliada em
k
{\displaystyle k}
.
A função de distribuição acumulada é a função gama regularizada:
F
(
x
;
k
,
θ θ -->
)
=
∫ ∫ -->
0
x
f
(
u
;
k
,
θ θ -->
)
d
u
=
γ γ -->
(
k
,
x
θ θ -->
)
Γ Γ -->
(
k
)
{\displaystyle F(x;k,\theta )=\int _{0}^{x}f(u;k,\theta )\,du={\frac {\gamma \left(k,{\frac {x}{\theta }}\right)}{\Gamma (k)}}}
onde
γ γ -->
(
k
,
x
θ θ -->
)
{\displaystyle \gamma \left(k,{\frac {x}{\theta }}\right)}
é a função gama incompleta inferior.
Também pode ser expressa como segue, se
k
{\displaystyle k}
é um inteiro positivo (isto é, a distribuição é uma distribuição Erlang ):[ 3]
F
(
x
;
k
,
θ θ -->
)
=
1
− − -->
∑ ∑ -->
i
=
0
k
− − -->
1
1
i
!
(
x
θ θ -->
)
i
e
− − -->
x
/
θ θ -->
=
e
− − -->
x
/
θ θ -->
∑ ∑ -->
i
=
k
∞ ∞ -->
1
i
!
(
x
θ θ -->
)
i
{\displaystyle F(x;k,\theta )=1-\sum _{i=0}^{k-1}{\frac {1}{i!}}\left({\frac {x}{\theta }}\right)^{i}e^{-x/\theta }=e^{-x/\theta }\sum _{i=k}^{\infty }{\frac {1}{i!}}\left({\frac {x}{\theta }}\right)^{i}}
Aplicações
Este tipo de distribuição geralmente é aplicada quando se quer fazer algum tipo de analise ligada ao tempo de vida de algum tipo de produto. Por exemplo em um painel elétrico, os mesmo componentes elétricos tem a sua duração (vida útil) aproximadamente igual, ou seja vão durar o mesmo período de tempo, porem alguns podem durar muito mais.
Referências
↑ Park, Sung Y.; Bera, Anil K. (2009). «Maximum entropy autoregressive conditional heteroskedasticity model» (PDF) . Elsevier. Journal of Econometrics : 219-230. doi :10.1016/j.jeconom.2008.12.014 . Consultado em 29 de junho de 2017
↑ Scalable Recommendation with Poisson Factorization , Prem Gopalan, Jake M. Hofman, David Blei, arXiv.org 2014
↑ a b Papoulis, Pillai, Probability, Random Variables, and Stochastic Processes , Fourth Edition