Na teoria da probabilidade e na estatística, a distribuição de Poisson é uma distribuição de probabilidade discreta que expressa a probabilidade de um determinado número de eventos ocorrer em um intervalo fixo de tempo ou espaço se esses eventos ocorrerem com uma taxa média constante conhecida e independentemente do tempo desde o último evento.[1]
A distribuição foi descoberta por Siméon Denis Poisson (1781–1840) e publicada, conjuntamente com a sua teoria da probabilidade, em 1838 no seu trabalho Recherches sur la probabilité des jugements en matières criminelles et matière civile ("Pesquisa sobre a probabilidade em julgamentos sobre matérias criminais e civis"). O trabalho focava-se em certas variáveis aleatórias N que contavam, entre outras coisas, o número de ocorrências discretas de um certo fenômeno durante um intervalo de tempo de determinada duração. A probabilidade de que existam exactamente k ocorrências (k sendo um inteiro não negativo, k = 0, 1, 2, ...) é
onde
Como função de k, esta é a função de probabilidade. A distribuição de Poisson pode ser derivada como um caso limite da distribuição binomial.
A distribuição de Poisson aparece em vários problemas físicos, com a seguinte formulação: considerando uma data inicial (t = 0), seja N(t) o número de eventos que ocorrem até uma certa data t. Por exemplo, N(t) pode ser um modelo para o número de impactos de asteroides maiores que um certo tamanho desde uma certa data de referência.
Uma aproximação que pode ser considerada é que a probabilidade de acontecer um evento em qualquer intervalo não depende (no sentido de independência estatística) da probabilidade de acontecer em qualquer outro intervalo disjunto.
Neste caso, a solução para o problema é o processo estocástico chamado de Processo de Poisson, para o qual vale:
P [ N ( t ) = K ] = e − λ t ( λ t ) k k ! , {\displaystyle P[N(t)=K]={\frac {e^{-\lambda t}(\lambda t)^{k}}{k!}},\,\!}
em que λ é uma constante (de unidade inversa da unidade do tempo)[carece de fontes?].
Ou seja, o número de eventos até uma época qualquer t é uma distribuição de Poisson com parâmetro λ t.
O valor esperado de uma distribuição de Poisson é igual a λ. Esta propriedade pode ser derivada facilmente[2]:
A variância de uma distribuição de Poisson é igual a λ {\displaystyle \lambda } , como podemos demonstrar.
Sabendo que var ( X ) = E ( X 2 ) − ( E ( X ) ) 2 {\displaystyle \operatorname {var} (X)=\operatorname {E} (X^{2})-(\operatorname {E} (X))^{2}} e E ( X ) = λ {\displaystyle {E}(X)=\lambda }
Calculamos o segundo momento E ( X 2 ) {\displaystyle {E}(X^{2})} , para uma variável aleatória discreta:
E [ X 2 ] = ∑ k = 0 ∞ k 2 [ e − λ λ k k ! ] {\displaystyle E\left[X^{2}\right]=\sum _{k=0}^{\infty }k^{2}\left[{\frac {e^{-\lambda }\lambda ^{k}}{k!}}\,\!\right]} Expandindo o somatório
E [ X 2 ] = 1 2 [ e − λ λ 1 1 ! ] + 2 2 [ e − λ λ 2 2 ! ] + 3 2 [ e − λ λ 3 3 ! ] + . . . + n 2 [ e − λ λ n n ! ] + . . . {\displaystyle E\left[X^{2}\right]=1^{2}\left[{\frac {e^{-\lambda }\lambda ^{1}}{1!}}\,\!\right]+2^{2}\left[{\frac {e^{-\lambda }\lambda ^{2}}{2!}}\,\!\right]+3^{2}\left[{\frac {e^{-\lambda }\lambda ^{3}}{3!}}\,\!\right]+...+n^{2}\left[{\frac {e^{-\lambda }\lambda ^{n}}{n!}}\,\right]+...\!} Simplificando os termos ao quadrado com os fatoriais
E [ X 2 ] = [ e − λ λ 1 ] + 2 [ e − λ λ 2 ] + 3 [ e − λ λ 3 2 ! ] + . . . + n [ e − λ λ n ( n − 1 ) ! ] + . . . {\displaystyle E\left[X^{2}\right]=\left[{e^{-\lambda }\lambda ^{1}}\right]+2\left[{e^{-\lambda }\lambda ^{2}}\right]+3\left[{\frac {e^{-\lambda }\lambda ^{3}}{2!}}\,\!\right]+...+n\left[{\frac {e^{-\lambda }\lambda ^{n}}{(n-1)!}}\,\right]+...\!} Colocando λ {\displaystyle \lambda } e e − λ {\displaystyle e^{-\lambda }} em evidência
E [ X 2 ] = e − λ λ [ 1 + 2 λ + 3 λ 2 2 ! + . . . + n λ n − 1 ( n − 1 ) ! + . . . ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }}{\lambda }{\biggl [}1+2{\lambda }+3{\frac {\lambda ^{2}}{2!}}+...+n{\frac {\lambda ^{n-1}}{(n-1)!}}+...{\biggr ]}}
E [ X 2 ] = e − λ λ ∑ n = 1 ∞ n [ λ n − 1 ( n − 1 ) ! ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\sum _{n=1}^{\infty }n\left[{\frac {\lambda ^{n-1}}{(n-1)!}}\right]} fazendo n − 1 = k {\displaystyle n-1=k} e n = k + 1 {\displaystyle n=k+1}
E [ X 2 ] = e − λ λ ∑ k = 0 ∞ [ k + 1 ] [ λ k k ! ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\sum _{k=0}^{\infty }{\left[k+1\right]}\left[{\frac {\lambda ^{k}}{k!}}\right]}
E [ X 2 ] = e − λ λ ∑ k = 0 ∞ [ k λ k k ! + λ k k ! ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\sum _{k=0}^{\infty }{\left[{k{\frac {\lambda ^{k}}{k!}}}+{\frac {\lambda ^{k}}{k!}}\right]}}
E [ X 2 ] = e − λ λ [ ∑ k = 0 ∞ k λ k k ! + ∑ k = 0 ∞ λ k k ! ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\left[\sum _{k=0}^{\infty }{{k{\frac {\lambda ^{k}}{k!}}}+{\sum _{k=0}^{\infty }{\frac {\lambda ^{k}}{k!}}}}\right]} Série de Taylor Função Exponencial ∑ k = 0 ∞ λ k k ! {\displaystyle \sum _{k=0}^{\infty }{\frac {\lambda ^{k}}{k!}}} converge para e λ {\displaystyle e^{\lambda }}
E [ X 2 ] = e − λ λ [ ∑ k = 0 ∞ k λ k k ! + e λ ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\left[\sum _{k=0}^{\infty }{{k{\frac {\lambda ^{k}}{k!}}}+e^{\lambda }}\right]} Expandindo o somatório
E [ X 2 ] = e − λ λ [ 0 λ 0 0 ! + 1 λ 1 1 ! + 2 λ 2 2 ! + 3 λ 3 3 ! + . . . + k λ k k ! + e λ ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\left[{{0{\frac {\lambda ^{0}}{0!}}}+{1{\frac {\lambda ^{1}}{1!}}}+{2{\frac {\lambda ^{2}}{2!}}}+{3{\frac {\lambda ^{3}}{3!}}}+...+{k{\frac {\lambda ^{k}}{k!}}}+e^{\lambda }}\right]} Simplificando os termos ao quadrado com os fatoriais
E [ X 2 ] = e − λ λ [ λ + λ 2 + λ 3 2 ! + . . . + λ k ( k − 1 ) ! + e λ ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\left[{{\lambda }+{\lambda ^{2}}+{\frac {\lambda ^{3}}{2!}}+...+{\frac {\lambda ^{k}}{(k-1)!}}+e^{\lambda }}\right]} Colocando λ {\displaystyle \lambda } em evidência
E [ X 2 ] = e − λ λ [ λ ( 1 + λ + λ 2 2 ! + . . . + λ k − 1 ( k − 1 ) ! ) + e λ ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\left[\lambda {\biggl (}{{1}+{\lambda }+{\frac {\lambda ^{2}}{2!}}+...+{\frac {\lambda ^{k-1}}{(k-1)!}}{\biggr )}+e^{\lambda }}\right]}
E [ X 2 ] = e − λ λ [ λ ∑ k = 1 ∞ λ k − 1 ( k − 1 ) ! + e λ ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\left[\lambda {{\sum _{k=1}^{\infty }{\frac {\lambda ^{k-1}}{(k-1)!}}}+e^{\lambda }}\right]} fazendo k − 1 = n {\displaystyle k-1=n}
E [ X 2 ] = e − λ λ [ λ ∑ n = 0 ∞ λ n n ! + e λ ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }\left[\lambda {{\sum _{n=0}^{\infty }{\frac {\lambda ^{n}}{n!}}}+e^{\lambda }}\right]} Série de Taylor Função Exponencial ∑ n = 0 ∞ λ n n ! {\displaystyle \sum _{n=0}^{\infty }{\frac {\lambda ^{n}}{n!}}} converge para e λ {\displaystyle e^{\lambda }}
E [ X 2 ] = e − λ λ [ λ e λ + e λ ] {\displaystyle E\left[X^{2}\right]={e^{-\lambda }\lambda }{\biggl [}\lambda {e^{\lambda }+e^{\lambda }}{\biggr ]}}
E [ X 2 ] = e − λ λ 2 e λ + e − λ λ e λ {\displaystyle E\left[X^{2}\right]={e^{-\lambda }}{\lambda ^{2}}{e^{\lambda }}+{e^{-\lambda }{\lambda }{e^{\lambda }}}}
E [ X 2 ] = λ 2 + λ {\displaystyle E\left[X^{2}\right]={\lambda ^{2}}+{\lambda }}
Substituindo E ( X 2 ) {\displaystyle \operatorname {E} (X^{2})} e E ( X ) {\displaystyle {E}(X)} em var ( X ) = E ( X 2 ) − ( E ( X ) ) 2 {\displaystyle \operatorname {var} (X)=\operatorname {E} (X^{2})-(\operatorname {E} (X))^{2}}
var ( X ) = λ 2 + λ − λ 2 {\displaystyle \operatorname {var} (X)={\lambda ^{2}}+{\lambda }-{\lambda ^{2}}}
var ( X ) = λ {\displaystyle \operatorname {var} (X)={\lambda }}
A soma de duas variáveis de Poisson independentes é ainda uma variável de Poisson com parâmetro igual à soma dos respectivos parâmetros. Ou seja, se X i ∼ P o i s s o n ( λ i ) {\displaystyle X_{i}\sim \mathrm {Poisson} (\lambda _{i})\,} segue uma distribuição de Poisson com parâmetro λ i {\displaystyle \lambda _{i}\,} e as variáveis aleatórias X i {\displaystyle X_{i}} são estatisticamente independentes, então
Por exemplo, X 1 {\displaystyle X_{1}} é uma variável aleatória que representa o número de óbitos por mil nascimentos na cidade "A" (distribuição de Poisson com média 1,2, digamos) e X 2 {\displaystyle X_{2}} é uma variável aleatória que representa o número de óbitos por mil nascimentos na cidade "B" (variável de Poisson com média 3). Ao todo, o número de óbitos por mil nascimentos nas cidades "A" e "B" têm distribuição de Poisson com média ∑ i = 1 2 λ i = 1 , 2 + 3 = 4 , 2 {\displaystyle \sum _{i=1}^{2}\lambda _{i}=1,2+3=4,2} .
Um método rápido e fácil para calcular um intervalo de confiança de aproximada de λ, é proposto na Guerriero (2012).[3] Dado um conjunto de eventos k (pelo menos 15 - 20) ao longo de um período de tempo T, os limites do intervalo confiança para a frequência são dadas por:
em seguida, os limites do parâmetro λ {\displaystyle \lambda } são dadas por: λ l o w = F l o w T ; λ u p p = F u p p T {\displaystyle \lambda _{low}=F_{low}T;\lambda _{upp}=F_{upp}T} .
A distribuição de Poisson representa um modelo probabilístico adequado para o estudo de um grande número de fenômenos observáveis. Eis alguns exemplos:
|Título=
Análise de "Cluster" (análise de agrupamento)