Aplica una definición relativamente limitada de frecuentación y MLE, si somos un poco más generosos y definimos
Frecuentismo: objetivo de consistencia, optimismo (asintótico), imparcialidad y tasas de error controladas bajo muestreo repetido, independientemente de los parámetros verdaderos
MLE = estimación puntual + intervalos de confianza (IC)
entonces parece bastante claro que MLE satisface todos los ideales frecuentistas. En particular, los IC en MLE, como valores p, controlan la tasa de error bajo muestreo repetido y no dan la región de probabilidad del 95% para el verdadero valor del parámetro, como muchas personas piensan , por lo tanto, son muy frecuentes.
No todas estas ideas ya estaban presentes en el artículo fundamental de Fisher de 1922 "Sobre los fundamentos matemáticos de la estadística teórica" , pero la idea de optimismo e imparcialidad sí existe, y Neyman agregó la idea de construir CI con tasas de error fijas. Efron, 2013, "Un argumento de 250 años: creencia, comportamiento y la rutina" , resume en su muy legible historia del debate bayesiano / frequentista:
El carro de los frecuentistas realmente comenzó a funcionar a principios del siglo XX. Ronald Fisher desarrolló la teoría de máxima probabilidad de estimación óptima, mostrando el mejor comportamiento posible para una estimación, y Jerzy Neyman hizo lo mismo para los intervalos de confianza y las pruebas. Los procedimientos de Fisher y Neyman se ajustaban casi perfectamente a las necesidades científicas y los límites computacionales de la ciencia del siglo XX, convirtiendo el bayesianismo en una existencia oculta.
Con respecto a su definición más limitada: discrepo ligeramente con su premisa de que la minimización del riesgo frecuentista (FR) es el criterio principal para decidir si un método sigue la filosofía frecuentista. Diría que el hecho de que minimizar FR es una propiedad deseable se deriva de la filosofía frecuentista, en lugar de precederla. Por lo tanto, una regla de decisión / estimador no tiene que minimizar FR para ser frecuentista, y minimizar FR tampoco es necesariamente decir que un método es frecuenta, pero un frecuentista preferiría la minimización de FR.
Si observamos específicamente el MLE: Fisher demostró que el MLE es asintóticamente óptimo (equivalente en términos generales a minimizar el FR), y esa fue sin duda una de las razones para promover el MLE. Sin embargo, era consciente de que la optimización no era válida para el tamaño de muestra finito. Aún así, estaba contento con este estimador debido a otras propiedades deseables, como la consistencia, la normalidad asintótica, la invariancia bajo las transformaciones de los parámetros, y no lo olvidemos: facilidad de cálculo. La invarianza en particular se enfatiza abundantemente en el artículo de 1922: desde mi lectura, diría que mantener la invariancia bajo la transformación de parámetros, y la capacidad de deshacerse de los antecedentes en general, fueron una de sus principales motivaciones para elegir MLE. Si quieres entender mejor su razonamiento, realmente recomiendo el artículo de 1922, '