Me parece que estás considerando un mundo de frecuentistas y bayesianos. Eso no tiene muchos matices. Por ejemplo, si tiene que ser uno u otro, o como si los métodos aplicados están determinados por algunas creencias personales (en lugar de la conveniencia y el problema específico y la información a la mano). Creo que este es un concepto erróneo basado en las tendencias actuales de llamarse frecuentista o bayesiano, y también mucho lenguaje estadístico puede ser confuso. Solo trate de que un grupo de estadísticos explique el valor p o el intervalo de confianza.
Algunas obras clásicas pueden ayudarlo a comprender la inferencia frecuentista. Las obras clásicas contienen principios fundamentales, están cerca del calor de la discusión entre los proponentes y proporcionan un trasfondo de la motivación y relevancia (práctica) en ese momento.
Además, estos trabajos clásicos sobre métodos frecuentistas, fueron escritos en una época en la que la gente trabajaba principalmente con principios bayesianos y cálculos matemáticos de probabilidad (tenga en cuenta que la estadística no siempre es como si estuviera trabajando en un problema matemático típico con probabilidades, las probabilidades pueden ser muy mal definido).
La probabilidad frecuente no es la probabilidad inversa
'Probabilidad inversa' Fisher 1930
Usted hace una noción de la probabilidad de ser una expresión bayesiana con un plano anterior
Sin embargo,
mientras que las matemáticas coinciden (cuando se interpretan incorrectamente, ya que puede obtener P (x | a) = P (a | x), hasta una constante, pero no son los mismos términos), la construcción y el significado son diferentes.
Probabilidad no pretende ser una "probabilidad bayesiana basada en antecedentes planos o uniformados". La probabilidad ni siquiera es una probabilidad y no sigue las reglas de las distribuciones de probabilidad (por ejemplo, no puede sumar la probabilidad de diferentes eventos, y la integral no es igual a uno), es solo cuando la multiplica con un previo plano, que se convierte en una probabilidad, pero luego el significado también ha cambiado.
Algunas citas interesantes de 'probabilidad inversa' 1930 Fisher.
Los métodos bayesianos y frecuentistas son herramientas diferentes :
... hay dos medidas diferentes de creencia racional apropiadas para diferentes casos. Conociendo la población, podemos expresar nuestro conocimiento incompleto o la expectativa de la muestra en términos de probabilidad; conociendo la muestra podemos expresar nuestro conocimiento incompleto de la población en términos de probabilidad. Podemos establecer la probabilidad relativa de que una correlación desconocida sea + 0.6, pero no la probabilidad de que se encuentre en el rango .595-.605.
Tenga en cuenta que no es una declaración de probabilidad determinado, lo que proporciona un método frecuencial.
Al construir una tabla de valores correspondientes, podemos saber tan pronto como se calcule T cuál es el 5% fiducial, el valor de , y que el verdadero valor de será menor que este valor en solo el 5%, de juicios. Entonces, esta es una declaración de probabilidad definida sobre el parámetro desconocido , que es cierto independientemente de cualquier suposición en cuanto a su distribución a priori .θθθ
- un método frecuentista hace una declaración sobre la probabilidad de que un experimento (con intervalo aleatorio) tenga el valor verdadero de un parámetro (posiblemente aleatorio) dentro del intervalo dado por una estadística.
- Esto no se debe confundir con la probabilidad de que un experimento específico (con intervalo fijo) tenga el valor verdadero del parámetro (fijo) dentro del intervalo dado por la estadística.
Consulte también "Sobre el" Error probable "de un coeficiente de correlación deducido de una muestra pequeña". Fisher 1921 en el que Fisher demostró la diferencia de que su método no es una probabilidad inversa bayesiana.
En el artículo anterior se encontró, aplicando un método desarrollado previamente, que el valor << más probable >> de la correlación de la población era, numéricamente, ligeramente más pequeño que el de la muestra. Esta conclusión fue criticada negativamente en Biométrica , aparentemente por la suposición incorrecta de que la deduje del teorema de Bayes . Se mostrará en este documento que cuando las curvas de muestreo se vuelven aproximadamente normales, la corrección que propuse es igual a la distancia entre el valor de la población y el punto medio de la curva de muestreo y, en consecuencia, no es más que la corrección de un sesgo constante introducido por el método de cálculo. No se supone nada sobre la probabilidad a priori.
y
... dos conceptos radicalmente distintos se han confundido bajo el nombre de << probabilidad >> ...
eso es probabilidad y verosimilitud. Véase también la nota al final del artículo de Fishers de 1921 en el que habla más sobre la confusión.
Tenga en cuenta nuevamente que la probabilidad es una función de un conjunto de parámetros, pero no una función de densidad de probabilidad de ese conjunto de parámetros.
La probabilidad se usa para algo que puedes observar. Por ejemplo, la probabilidad de que un dado arroje seis. La probabilidad se usa para algo que no puedes observar, por ejemplo, la hipótesis de que un dado tira seis 1/6 de las veces.
Además, es posible que le guste el trabajo de Fisher en el que es mucho más ligero en su opinión sobre el teorema de Bayes (aún describe las diferencias). 'Sobre los fundamentos matemáticos de la estadística teórica' Fisher 1922 (especialmente la sección 6 'solución formal del problema de estimación')
Más
Si puede comprender y apreciar los comentarios de Fisher sobre la diferencia entre la probabilidad inversa y el principio de probabilidad, es posible que desee leer más sobre las diferencias dentro de los métodos frecuentistas.
'Esquema de una teoría de la estimación estadística basada en la teoría clásica de la probabilidad' Neyman 1937
Que es un trabajo de 50 páginas y difícil de resumir. Pero trata sus preguntas sobre la falta de sesgo , explica el método de mínimos cuadrados (y la diferencia con el método de máxima verosimilitud), y proporciona específicamente un tratamiento de los intervalos de confianza (los intervalos frecuentas ya no son similares, únicos, y mucho menos que sean lo mismo que los intervalos bayesianos para los priors planos).
Con respecto a la prueba F, no está claro qué, en nombre de Laplace, crees que está mal. Si le gusta un uso temprano, puede buscar en 'Estudios sobre variación de cultivos. II La respuesta del estiércol de diferentes variedades de papa '1923 Fisher y Mackenzie
Este artículo tiene la expresión de anova en un modelo lineal reconocible que subdivide las sumas de cuadrados entre grupos y dentro de ellos.
(en la prueba del artículo de 1923, la prueba consiste en una comparación de las diferencias entre los registros de las desviaciones estándar de la muestra con un error estándar calculado para esta diferencia que se determina mediante una suma de grados de libertad . Los trabajos posteriores hacen que estas expresiones más sofisticadas conduzcan a la distribución F, de modo que pueda difundir las ideas que uno pueda tener al respecto. Pero, en esencia, sin el malabarismo técnico debido a distribuciones más exactas para números pequeños, su origen es muy parecido a una prueba z).12d1+12d2