Si alguien dijera
"Ese método utiliza el MLE, la estimación puntual para el parámetro que maximiza , por lo tanto, es frecuentista; y además no es bayesiano".
estarías de acuerdo?
- Actualización sobre los antecedentes : Hace poco leí un artículo que dice ser frecuente. No estoy de acuerdo con su reclamo, en el mejor de los casos siento que es ambiguo. El documento no menciona explícitamente el MLE (o el MAP , para el caso). Simplemente toman una estimación puntual, y simplemente proceden como si esta estimación puntual fuera cierta. Ellos nohacer algún análisis de la distribución muestral de este estimador, o algo así; el modelo es bastante complejo y, por lo tanto, tal análisis probablemente no sea posible. Tampoco usan la palabra 'posterior' en ningún momento. Simplemente toman esta estimación puntual a su valor nominal y proceden a su tema principal de interés: inferir datos faltantes. No creo que haya nada en su enfoque que sugiera cuál es su filosofía. Es posible que hayan pretendido ser frecuentistas (porque se sienten obligados a usar su filosofía en la manga), pero su enfoque real es bastante simple / conveniente / vago / ambiguo. Ahora me inclino a decir que la investigación realmente no tiene ninguna filosofía detrás; en cambio, creo que su actitud era más pragmática o conveniente:
"He observado datos, , y deseo estimar algunos datos faltantes, . Hay un parámetro que controla la relación entre y . Realmente no me importa excepto como un medio para un fin . Si tengo una estimación para , será más fácil predecir partir de . Elegiré una estimación puntual de porque es conveniente, en particular elegiré la que maximiza ".θ zθ θ z x θ θ P ( x | θ )
En los métodos bayesianos, los roles de los datos y el parámetro se invierten. En particular, ahora condicionamos los datos observados y procedemos a hacer inferencias sobre el valor del parámetro. Esto requiere un previo.
Hasta ahora todo bien, pero ¿dónde encaja el MLE (Estimación de máxima verosimilitud) en todo esto? Tengo la impresión de que mucha gente siente que es frequentista (o más precisamente, que no es bayesiano). Pero siento que es bayesiano porque implica tomar los datos observados y luego encontrar el parámetro que maximice . El MLE utiliza implícitamente un previo uniforme y condiciona los datos y maximiza . ¿Es justo decir que el MLE se ve tanto frequentista como bayesiano? ¿O cada herramienta simple tiene que caer exactamente en una de esas dos categorías?P ( p a r a m e t e r | d a t a )
El MLE es consistente pero creo que la consistencia se puede presentar como una idea bayesiana. Dadas muestras arbitrariamente grandes, la estimación converge en la respuesta correcta. La afirmación "la estimación será igual al valor verdadero" es verdadera para todos los valores del parámetro. Lo interesante es que esta afirmación también es cierta si condiciona los datos observados, haciéndolos bayesianos. Este interesante aparte vale para el MLE, pero no para un estimador imparcial.
Es por eso que siento que el MLE es el "más Bayesiano" de los métodos que podrían describirse como Frequentistas.
De todos modos, la mayoría de las propiedades frequentistas (como la imparcialidad) se aplican en todos los casos, incluidos los tamaños de muestra finitos. El hecho de que la consistencia solo se mantenga en el escenario imposible (muestra infinita dentro de un experimento) sugiere que la consistencia no es una propiedad tan útil.
Dada una muestra realista (es decir, finita), ¿existe una propiedad frequentista que sea válida para el MLE? Si no, el MLE no es realmente frequentista.