Me refiero a este artículo: http://www.nytimes.com/2011/01/11/science/11esp.html
Considere el siguiente experimento. Supongamos que hay razones para creer que una moneda pesó ligeramente hacia las cabezas. En una prueba, la moneda sale cara 527 veces de cada 1,000.
¿Es esta evidencia significativa de que la moneda está ponderada?
El análisis clásico dice que sí. Con una moneda justa, las posibilidades de obtener 527 o más caras en 1,000 lanzamientos son menos de 1 en 20, o 5 por ciento, el límite convencional. Para decirlo de otra manera: el experimento encuentra evidencia de una moneda ponderada "con un 95 por ciento de confianza".
Sin embargo, muchos estadísticos no lo compran. Uno de cada 20 es la probabilidad de obtener cualquier número de cabezas por encima de 526 en 1,000 lanzamientos. Es decir, es la suma de la probabilidad de voltear 527, la probabilidad de voltear 528, 529 y así sucesivamente.
Pero el experimento no encontró todos los números en ese rango; encontró solo uno - 527. Por lo tanto, es más preciso, dicen estos expertos, calcular la probabilidad de obtener ese número - 527 - si la moneda está ponderada, y compararla con la probabilidad de obtener el mismo número si la moneda es justa.
Los estadísticos pueden mostrar que esta proporción no puede ser superior a aproximadamente 4 a 1, según Paul Speckman, un estadístico que, con Jeff Rouder, un psicólogo, dio el ejemplo.
Primera pregunta: esto es nuevo para mí. ¿Alguien tiene una referencia donde pueda encontrar el cálculo exacto y / o USTED puede ayudarme dándome el cálculo exacto usted mismo y / o puede indicarme algún material donde pueda encontrar ejemplos similares?
Bayes ideó una forma de actualizar la probabilidad de una hipótesis a medida que ingresa nueva evidencia.
Entonces, al evaluar la fuerza de un hallazgo dado, el análisis bayesiano (pronunciado BAYZ-ee-un) incorpora probabilidades conocidas, si están disponibles, fuera del estudio.
Podría llamarse el efecto "Sí, correcto". Si un estudio encuentra que los kumquats reducen el riesgo de enfermedad cardíaca en un 90 por ciento, que un tratamiento cura la adicción al alcohol en una semana, que los padres sensibles tienen el doble de probabilidades de dar a luz a una niña que a un niño, la respuesta bayesiana coincide con la de El escéptico nativo: Sí, claro. Los hallazgos del estudio se comparan con lo que se puede observar en el mundo.
En al menos un área de la medicina (pruebas de detección diagnósticas), los investigadores ya usan probabilidades conocidas para evaluar nuevos hallazgos. Por ejemplo, una nueva prueba de detección de mentiras puede ser 90 por ciento precisa, marcando correctamente 9 de cada 10 mentirosos. Pero si se administra a una población de 100 personas que ya se sabe que incluyen 10 mentirosos, la prueba es mucho menos impresionante.
Identifica correctamente 9 de los 10 mentirosos y pierde uno; pero identifica incorrectamente 9 de los otros 90 como mentirosos. Al dividir los llamados verdaderos positivos (9) por el número total de personas marcadas por la prueba (18) se obtiene una tasa de precisión del 50 por ciento. Los "falsos positivos" y los "falsos negativos" dependen de las tasas conocidas en la población.
Segunda pregunta: ¿Cómo juzga exactamente si un nuevo hallazgo es "real" o no con este método? Y: ¿No es esto tan arbitrario como la barrera del 5% debido al uso de alguna probabilidad previa preestablecida?