El papel de la información de Fisher en la teoría asintótica de la estimación de máxima verosimilitud fue destacado por el estadístico Sir Ronald Fisher (siguiendo algunos resultados iniciales de Francis Ysidro Edgeworth). La matriz de información de Fisher se utiliza para calcular las matrices de covarianza asociadas a las estimaciones de máxima verosimilitud. También puede utilizarse en la formulación de pruebas estadísticas, como la prueba de Wald.
Se ha demostrado que los sistemas estadísticos de carácter científico (físicos, biológicos, etc.) cuyas funciones de verosimilitud obedecen a la invariancia de desplazamiento obedecen al máximo de información de Fisher.[5] El nivel del máximo depende de la naturaleza de las restricciones del sistema.
Definición
La información de Fisher es una forma de medir la cantidad de información que una variable aleatoria observable contiene respecto a un parámetro desconocido sobre el que se basa la probabilidad de . Sea la función de densidad de probabilidad (o función de masa de probabilidad) para , condicionada al valor de . Describe la probabilidad de que observemos un resultado dado de , dado un valor conocido de . Si tiene un pico pronunciado con respecto a los cambios en , es fácil indicar el valor «correcto» de a partir de los datos, o equivalentemente, que los datos proporcionan mucha información sobre el parámetro . Si es plano y disperso, se necesitarían muchas muestras de para estimar el valor real «verdadero» de que se podría obtener utilizando toda la población muestreada. Esto sugiere estudiar algún tipo de varianza con respecto a .
Formalmente, la derivada parcial con respecto a del logaritmo natural de la función de verosimilitud se denomina score. Bajo ciertas condiciones de regularidad, si es el parámetro verdadero (es decir se distribuye realmente como , puede demostrarse que el valor esperado (el primer momento) de la puntuación, evaluado en el valor verdadero del parámetro es 0:[6]
La información de Fisher es definida por la varianza del score:[7]
Nótese que . Una variable aleatoria con información de Fisher elevada implica que el valor absoluto del score suele ser alto. La información de Fisher no es función de una observación concreta, ya que se promedia la variable aleatoria .
Si log f(x; θ) es dos veces diferenciable con respecto a , y bajo ciertas condiciones de regularidad, entonces la información de Fisher también se puede escribir de la siguiente manera:[8]
ya que
y
En ese sentido, la información de Fisher puede verse como la curvatura de la curva de soporte (el gráfico de la log-verosimilitud). Cerca de la estimación de máxima verosimilitud, una información de Fisher baja indica que el máximo parece blunt, es decir, que el máximo es poco profundo y hay muchos valores cercanos con una log-verosimilitud similar. Por el contrario, una información de Fisher alta indica que el máximo es agudo.
Condiciones de regularidad
Las condiciones de regularidad son las siguientes:[9]
La derivada parcial de con respecto a existe en casi todas partes. Puede fallar en existir en un conjunto nulo, siempre que este conjunto no dependa de .
La integral de puede ser diferenciada bajo el signo integral con respecto a .
El soporte de no depende de .
Si es un vector entonces las condiciones de regularidad deben cumplirse para cada componente de . Es fácil encontrar un ejemplo de una densidad que no satisface las condiciones de regularidad: La densidad de una variable Uniforme(0, ) no satisface las condiciones 1 y 3. En este caso, aunque la información de Fisher pueda calcularse a partir de la definición, no tendrá las propiedades que se le suponen típicamente.
En términos de probabilidad
Dado que la probabilidad de dado es siempre proporcional a la probabilidad , sus logaritmos difieren necesariamente en una constante que es independiente de , y las derivadas de estos logaritmos con respecto a son necesariamente iguales. Por lo tanto, se puede sustituir log-verosimilitud l(θ; X) en lugar de log en las definiciones de la información de Fisher.
Muestras de cualquier tamaño
El valor puede representar una única muestra extraída de una única distribución o puede representar una colección de muestras extraídas de una colección de distribuciones. Si hay muestras y las distribuciones correspondientes son estadísticamente independientes, la información de Fisher será necesariamente la suma de los valores de información de Fisher de una sola muestra, uno por cada muestra de su distribución. En particular, si las distribuciones son independientes e idénticamente distribuidas, entonces la información de Fisher será necesariamente veces la información de Fisher de una sola muestra de la distribución común. Dicho de otro modo, la información de Fisher de observaciones i.i.d. de una muestra de tamaño de una población es igual al producto de y la información de Fisher de una única observación de la misma población.
Derivación informal del límite de Cramér-Rao
La cota de Cramér-Rao[10][11] establece que la inversa de la información de Fisher es un límite inferior de la varianza de cualquier estimador insesgado de . H.L. Van Trees (1968) y B. Roy Frieden (2004) proporcionan el siguiente método para derivar la cota de Cramér-Rao, un resultado que describe el uso de la información de Fisher.
Informalmente, empezamos considerando un estimador insesgado. Matemáticamente, «insesgado» significa que:
Esta expresión es cero independiente de , por lo que su derivada parcial con respecto a también debe ser cero. Por la regla del producto, esta derivada parcial también es igual a:
Para cada , la función de verosimilitud es una función de densidad de probabilidad, y por tanto . Utilizando la regla de la cadena sobre la derivada parcial de y luego dividiendo y multiplicando por , se puede comprobar que
El segundo factor entre corchetes se define como la información de Fisher, mientras que el primer factor entre corchetes es el error cuadrático medio esperado del estimador . Reordenando, la desigualdad da como resultado
En otras palabras, la precisión con la que podemos estimar está limitada fundamentalmente por la información de Fisher de la función de verosimilitud.
Alternativamente, la misma conclusión puede obtenerse directamente de la desigualdad de Cauchy-Schwarz para variables aleatorias, , aplicado a las variables aleatorias y , y observando que para estimadores insesgados tenemos
Ejemplo: Experimento Bernoulli de un solo parámetro
Un ensayo de Bernoulli es una variable aleatoria con dos resultados posibles, 0 y 1, donde 1 tiene una probabilidad de . El resultado se puede considerar como determinado por el lanzamiento de una moneda sesgada, siendo la probabilidad de cara (1) es y la probabilidad de cruz (0) es 1 - .
Sea un ensayo de Bernoulli de una muestra de la distribución, se puede calcular que la información de Fisher contenida en es:
Dado que la información de Fisher es aditiva, la información de Fisher contenida en ensayos Bernoulli independientes es
Si es uno de los posibles resultados de ensayos Bernoulli independientes y es el -ésimo resultado del -ésimo ensayo, entonces la probabilidad de viene dada por:
La media del -ésimo ensayo es
El valor esperado de la media de un ensayo es
donde la suma es sobre todos los posibles resultados del ensayo. El valor esperado del cuadrado de las medias es:
por lo que la varianza en el valor de la media es:
Se ve que la información de Fisher es el recíproco de la varianza del número medio de aciertos en ensayos Bernoulli. En general, esto es cierto. En este caso, el límite de Cramér-Rao es una igualdad.
Forma matricial
Cuando hay parámetros, de modo que es un × 1 vector entonces la información de Fisher adopta la forma de una matriz × . Esta matriz se denomina matriz de información de Fisher (MIF o Fisher information matrix) y tiene el elemento típico
En los casos en que los cálculos analíticos de la MIF anteriores son difíciles, es posible formar un promedio de estimaciones fáciles de Monte Carlo del hessiano de la función de log-verosimilitud negativa como estimación del MIF.[13][14][15] Las estimaciones pueden basarse en los valores de la función de verosimilitud logarítmica negativa o en el gradiente de la función de verosimilitud logarítmica negativa; no es necesario un cálculo analítico del hessiano de la función de log-verosimilitud negativa.
Parámetros ortogonales de información
Se considera que dos vectores de componentes de parámetros 1 y 2 son ortogonales desde el punto de vista de la información si la matriz de información de Fisher es diagonal de bloques, con estos componentes en bloques separados.[16] Los parámetros ortogonales son fáciles de tratar en el sentido de que sus estimaciones de máxima verosimilitud no están asintóticamente correlacionadas. Al considerar cómo analizar un modelo estadístico, se aconseja al modelizador que invierta algún tiempo en buscar una parametrización ortogonal del modelo, en particular cuando el parámetro de interés es unidimensional, pero el parámetro perturbador puede tener cualquier dimensión.[17]
Si la matriz de información de Fisher es definida positiva para todo , se dice que el modelo estadístico correspondiente es regular; en caso contrario, se dice que el modelo estadístico es singular.[18] Ejemplos de modelos estadísticos singulares son los siguientes: mezclas normales, mezclas binomiales, mezclas multinomiales, redes bayesianas, redes neuronales, funciones de base radial, modelos de Markov ocultos, gramáticas estocásticas libres de contexto, regresiones de rango reducido, máquinas de Boltzmann.
En el aprendizaje automático, si un modelo estadístico se diseña de forma que extraiga la estructura oculta de un fenómeno aleatorio, se convierte naturalmente en singular.[19]
Distribución normal multivariante
La MIF para una distribución normal multivariante de variables, tiene una forma especial. Sea el vector -dimensional de parámetros y el vector de variables aleatorias normales sea . Suponiendo que los valores medios de estas variables aleatorias son , y sea la matriz de covarianza. Entonces, para , la entrada (m, n) de la MIF es:[20]
Nótese que un caso especial, pero muy común, es aquel en el que , una constante. Entonces
En este caso, la matriz de información de Fisher puede identificarse con la matriz de coeficientes de las ecuaciones normales de la teoría de estimación por mínimos cuadrados.
Otro caso especial ocurre cuando la media y la covarianza dependen de dos parámetros vectoriales diferentes, dígase, β y θ. Esto es especialmente popular en el análisis de datos espaciales, que a menudo utiliza un modelo lineal con residuos correlacionados. En este caso:[21]
,
donde
Propiedades
Regla de la cadena
Al igual que la entropía o la información mutua, la información de Fisher también posee una regla de descomposición en cadena. En particular, si e son variables aleatorias distribuidas conjuntamente, se deduce que:[22]
donde y también es la información de Fisher de relativa a 𝜃, calculada con respecto a la densidad condicional de dado un valor específico = .
Como caso especial, si las dos variables aleatorias son independientes, la información proporcionada por las dos variables aleatorias es la suma de la información de cada variable aleatoria por separado:
Dada una función convexa que es finito para todo , , y , (que podría ser infinita), define una divergencia f (). Entonces, si es estrictamente convexo en , entonces localmente en , la matriz de información de Fisher es una métrica, en el sentido de que[23]
donde es la distribución parametrizada por . Es decir, es la distribución con pdf .
En esta forma, está claro que la matriz de información de Fisher es una métrica riemanniana, y varía correctamente bajo un cambio de variables.
La información de Fisher depende de la parametrización del problema. Si y son dos parametrizaciones escalares de un problema de estimación, y es una función continuamente diferenciable de , entonces
donde y son las medidas de información de Fisher de y , respectivamente.[25]
En el caso vectorial, supongamos que y son k-vectores que parametrizan un problema de estimación, y supongamos que es una función continuamente diferenciable de , entonces,[26]
En la geometría de la información, esto se ve como un cambio de coordenadas en una variedad riemanniana, y las propiedades intrínsecas de la curvatura no cambian bajo diferentes parametrizaciones. En general, la matriz de información de Fisher proporciona una métrica riemanniana (más concretamente, la métrica de Fisher-Rao) para la variedad de estados termodinámicos, y puede utilizarse como medida de complejidad geométrica de la información para una clasificación de transiciones de fase, por ejemplo, la curvatura escalar del tensor métrico termodinámico diverge en (y sólo en) un punto de transición de fase.[27]
En el contexto termodinámico, la matriz de información de Fisher está directamente relacionada con la tasa de cambio de los parámetros de orden correspondientes.[28] En particular, tales relaciones identifican transiciones de fase de segundo orden a través de divergencias de elementos individuales de la matriz de información de Fisher.
Desigualdad isoperimétrica
La matriz de información de Fisher desempeña un papel en una desigualdad como la desigualdad isoperimétrica.[29] De todas las distribuciones de probabilidad con una entropía dada, aquella cuya matriz de información de Fisher tiene la traza más pequeña es la distribución gaussiana. Es como si, de todos los conjuntos acotados con un volumen dado, la esfera tuviera la superficie más pequeña.
La prueba consiste en tomar una variable aleatoria multivariante con función de densidad y añadir un parámetro de localización para formar una familia de densidades . Entonces, por analogía con la fórmula de Minkowski-Steiner, la «superficie» de se define como
donde es una variable gaussiana con matriz de covarianza . El nombre de «superficie» es adecuado porque la potencia de entropía es el volumen del «conjunto de apoyo efectivo»,[30] por lo que es la «derivada» del volumen del conjunto de soporte efectivo, muy parecida a la fórmula de Minkowski-Steiner. El resto de la prueba utiliza la desigualdad de potencia de entropía, que es como la desigualdad de Brunn-Minkowski. La traza de la matriz de información de Fisher es un factor de .
Aplicaciones
Diseño óptimo de experimentos
La información de Fisher se utiliza ampliamente en el diseño óptimo de experimentos. Debido a la reciprocidad entre estimador-varianza e información de Fisher, la minimización de la varianza corresponde a la maximización de la información.
Cuando el modelo estadísticolineal (o linealizado) tiene varios parámetros, la media del estimador del parámetro es un vector y su varianza es una matriz. La inversa de la matriz de varianza se denomina «matriz de información». Dado que la varianza del estimador de un vector de parámetros es una matriz, el problema de «minimizar la varianza» es complicado. Mediante la teoría estadística, los estadísticos comprimen la matriz de información utilizando síntesis estadística de valor real; al ser funciones de valor real, estos «criterios de información» pueden maximizarse.
Tradicionalmente, los estadísticos han evaluado estimadores y diseños considerando alguna síntesis estadística de la matriz de covarianza (de un estimador insesgado), normalmente con valores reales positivos (como el determinante o la traza de la matriz). Trabajar con números reales positivos aporta varias ventajas: Si el estimador de un único parámetro tiene una varianza positiva, entonces la varianza y la información de Fisher son números reales positivos; por lo tanto, son miembros del cono convexo de números reales no negativos (cuyos miembros no nulos tienen recíprocos en este mismo cono).
Para varios parámetros, las matrices de covarianza y las matrices de información son elementos del cono convexo de matrices simétricas no negativas-definidas en un espacio vectorial parcialmente ordenado, bajo el orden de Loewner (Löwner). Este cono es cerrado bajo la adición e inversión de matrices, así como bajo la multiplicación de números reales positivos y matrices. Una exposición de la teoría de matrices y del orden de Loewner aparece en Pukelsheim.[31]
Los criterios de optimalidad tradicionales son los invariantes de la matriz de información, en el sentido de la teoría de invariantes; algebraicamente, los criterios de optimalidad tradicionales son funcionales de los valores propios de la matriz de información (de Fisher).
Prioridad de Jeffreys en estadística bayesiana
En estadística bayesiana, la información de Fisher se utiliza para calcular la prioridad de Jeffreys, que es una prioridad estándar no informativa para parámetros de distribución continua.[32]
Neurociencia computacional
La información de Fisher se ha utilizado para encontrar límites a la precisión de los códigos neuronales. En ese caso, suele ser la respuesta conjunta de muchas neuronas que representan una variable de baja dimensión (como un parámetro de estímulo). En particular, se ha estudiado el papel de las correlaciones en el ruido de las respuestas neuronales.[33]
Epidemiología
Se utilizó la información de Fisher para estudiar el grado de información de distintas fuentes de datos para estimar el número de reproducción del SARS-CoV-2.[34]
Derivación de leyes físicas
La información de Fisher desempeña un papel central en un controvertido principio propuesto por Frieden como base de las leyes físicas, afirmación que ha sido puesta en duda.[35]
La información de Fisher puede utilizarse como alternativa al hessiano de la función de pérdida en el entrenamiento de redes de descenso de gradiente de segundo orden.[37]
Considérese ahora una familia de distribuciones de probabilidad parametrizado por . Entonces, la divergencia de Kullback-Leibler, entre dos distribuciones de la familia se puede escribir como
Si es fija, entonces la entropía relativa entre dos distribuciones de la misma familia se minimiza en . Para cercano a , se puede expandir la expresión anterior en una serie de segundo orden:
Pero la derivada de segundo orden puede escribirse como
Así, la información de Fisher representa la curvatura de la entropía relativa de una distribución condicional con respecto a sus parámetros.
Historia
La información de Fisher fue discutida por varios de los primeros estadísticos, especialmente F. Y. Edgeworth.[40] Por ejemplo, Savage[41] dice: «En ella [la información de Fisher], él [Fisher] se anticipó hasta cierto punto (Edgeworth 1908-9 esp. 502, 507-8, 662, 677-8, 82-5 y referencia citas de él [Edgeworth], incluyendo a Pearson y Filon 1898 [. . .])». Existen varias fuentes históricas tempranas[42] y varias reseñas de esta obra temprana.[43][44][45]
↑Nielsen, Frank (2013). «Cramér-Rao Lower Bound and Information Geometry». Connected at Infinity II. Texts and Readings in Mathematics (en inglés)67. pp. 18-37. ISBN978-93-80250-51-9. doi:10.1007/978-93-86279-56-9_2. arxiv: 1301.3578 s2cid: 16759683.
↑Spall, J. C. (2005). «Monte Carlo Computation of the Fisher Information Matrix in Nonstandard Settings». Journal of Computational and Graphical Statistics(en inglés)14 (4): 889-909. doi:10.1198/106186005X78800. Semantic Scholar Corpus ID: 16090098.
↑Barndorff-Nielsen, O. E.; Cox, D. R. (1994). Inference and Asymptotics(en inglés). Chapman & Hall. ISBN9780412494406.
↑Cox, D. R.; Reid, N. (1987). «Parameter orthogonality and approximate conditional inference (with discussion)». J. Royal Statistical Soc. B(en inglés)49: 1-39. doi:10.1111/j.2517-6161.1987.tb01422.x.
↑Malagò, Luigi; Pistone, Giovanni (2015). «Information Geometry of the Gaussian Distribution in View of Stochastic Optimization». Proceedings of the 2015 ACM Conference on Foundations of Genetic Algorithms XIII(en inglés). pp. 150-162. ISBN9781450334341. doi:10.1145/2725494.2725510. s2cid: 693896.
Cramér, Harald (1946). Mathematical methods of statistics. Princeton mathematical series (en inglés). Princeton: Princeton University Press. ISBN0691080046.
Rao, C. Radhakrishna (1945). «Information and the Accuracy Attainable in the Estimation of Statistical Parameters en Breakthroughs in Statistics». Bulletin of the Calcutta Mathematical Society. Springer Series in Statistics (en inglés)37: 81-91. ISBN978-0-387-94037-3. doi:10.1007/978-1-4612-0919-5_16.
Stigler, S. M. (1978). «Francis Ysidro Edgeworth, Statistician». Journal of the Royal Statistical Society, Series A(en inglés)141 (3): 287-322. doi:10.2307/2344804.