Na teoria da decisão e na teoria da estimativa, o exemplo de Stein (também conhecido como fenômeno de Stein ou paradoxo de Stein) é a observação de que quando três ou mais parâmetros são estimados simultaneamente, existem estimadores combinados mais precisos em média (ou seja, com menor erro médio quadrado esperado) do que qualquer método que manipule os parâmetros separadamente. É nomeado em homenagem a Charles Stein da Universidade de Stanford, que descobriu o fenômeno em 1955. [1]
Uma explicação intuitiva é que otimizar para o erro quadrático médio de um estimador combinado não é o mesmo que otimizar para os erros de estimadores separados dos parâmetros individuais. Em termos práticos, se o erro combinado for de fato de interesse, então um estimador combinado deve ser usado, mesmo que os parâmetros subjacentes sejam independentes. Se alguém estiver interessado em estimar um parâmetro individual, então usar um estimador combinado não ajuda e é de fato pior.
A seguinte é a forma mais simples do paradoxo, o caso especial em que o número de observações é igual ao número de parâmetros a serem estimados. Deixe ser um vetor composto por parâmetros desconhecidos. Para estimar esses parâmetros, uma única medição é executado para cada parâmetro , resultando em um vetor de comprimento . Suponha que as medições sejam conhecidas como variáveis aleatórias gaussianas independentes, com média e variância 1, ou seja, . Assim, cada parâmetro é estimado usando uma única medição de ruído, e cada medição é igualmente imprecisa.
Referências
Bibliografia
- Lehmann, E. L.; Casella, G. (1998), «ch.5», Theory of Point Estimation, ISBN 0-471-05849-1 2nd ed.
- Stein, C. (1956). Inadmissibility of the usual estimator for the mean of a multivariate distribution. 1. pp. 197–206. MR 0084922
- Samworth, R. J. (2012), «Stein's Paradox» (PDF), Eureka, 62: 38–41