A constante de normalização é um conceito que surge em teoria das probabilidades e em outras áreas da matemática. A constante de normalização é usada para reduzir qualquer função de probabilidade a uma função densidade de probabilidade com probabilidade total igual a 1.[1]
Definição e exemplos
Em teoria das probabilidades, uma constante de normalização é uma constante pela qual uma função não negativa em todo lugar deve ser multiplicada de modo que a área sob sua gráfico seja igual a 1, por exemplo, para tornar a função uma função densidade de probabilidade ou uma função massa de probabilidade. Por exemplo, se definirmos
teremos
e, se definirmos uma função como
de modo que
então a função é uma função densidade de probabilidade. Esta é a densidade da distribuição normal padrão, isto é, com valor esperado igual a 0 e variância igual a 1.
A constante é a constante de normalização da função .
De forma semelhante,
e, consequentemente,
é a uma função massa de probabilidade no conjunto de todos os números inteiros não negativos. Esta é a função massa de probabilidade da distribuição de Poisson com valor esperado igual a .[2]
Se a função densidade de probabilidade for uma função de vários parâmetros, assim também será sua constante de normalização. A constante de normalização parametrizada para a distribuição de Boltzmann desempenha uma papel central na mecânica estatística. Neste contexto, a constante de normalização é chamada de função de partição.[3]
Teorema de Bayes
O teorema de Bayes diz que a medida de probabilidade a posteriori é proporcional ao produto da medida de probabilidade a priori pela função de verossimilhança. "Proporcional ao" implica que se deve multiplicar ou dividir por uma constante de normalização para atribuir medida 1 ao espaço inteiro, isto é, para obter uma medida de probabilidade. No caso discreto simples, temos
em que é a probabilidade a priori de que a hipótese seja verdadeira; é a probabilidade condicional dos dados, sendo a hipótese verdadeira, mas já que os dados são conhecidos, é a verossimilhança da hipótese (ou seus parâmetros), levando em conta os dados; é a probabilidade a posterior de que hipótese seja verdadeira, levando em conta os dados; deve ser a probabilidade de produzir os dados, sendo por si só difícil de calcular, mas havendo uma forma alternativa de descrever esta relação em termos de proporcionalidade
Já que é uma probabilidade, a soma sobre todas as hipóteses possíveis (e mutuamente exclusivas) deve ser igual a 1, o que leva à conclusão que:
Neste caso, o inverso multiplicativo do valor
é a constante de normalização. Pode ser estendida de muitas hipóteses contáveis a muitas hipóteses incontáveis ao substituir a soma por uma integral.[4]
Usos não probabilísticos
Os polinômios de Legendre são caracterizados pela ortogonalidade com respeito à medida uniforme no intervalo e pelo fato de que são normalizados, de modo que seu valor em 1 seja 1. A constante pela qual se multiplica um polinômio de modo que seu valor em 1 seja 1 é uma constante de normalização.
Funções ortonormais são normalizadas, de modo que
com respeito a algum produto interior .
A constante é usada para estabelecer as funções hiperbólicas e o a partir dos comprimentos dos lados adjacentes e opostos de um triângulo hiperbólico.[5]
Referências