Por qué rechazamos la hipótesis nula en el nivel 0.05 y no en el nivel 0.5 (como lo hacemos en la Clasificación)


11

La prueba de hipótesis es similar a un problema de clasificación. Entonces, digamos, tenemos 2 posibles etiquetas para una observación (sujeto) - Culpable vs. No culpable. Que no culpable sea la hipótesis nula. Si viéramos el problema desde el punto de vista de la Clasificación, entrenaríamos un Clasificador que predeciría la probabilidad de que el sujeto pertenezca a cada una de las 2 Clases, dados los Datos. Luego elegiríamos la clase con la mayor probabilidad. En ese caso, la probabilidad 0.5 sería el umbral natural. Podríamos variar el umbral en caso de que asignemos costos diferentes a los falsos positivos contra los falsos negativos. Pero rara vez iríamos tan extremos como establecer el umbral en 0.05, es decir, asignar el sujeto a la Clase "Culpable" solo si la probabilidad es 0.95 o mayor. Pero si entiendo bien, Esto es lo que estamos haciendo como práctica estándar cuando vemos el mismo problema que un problema de prueba de hipótesis. En este último caso, no asignaremos la etiqueta "No culpable", equivalente a asignar la etiqueta "Culpable", solo si la probabilidad de ser "No culpable" es inferior al 5%. Y quizás esto tenga sentido si realmente queremos evitar condenar a personas inocentes. Pero, ¿por qué esta regla debería prevalecer en todos los dominios y en todos los casos?

Decidir qué hipótesis adoptar es equivalente a definir un estimador de la verdad dados los datos. En la Estimación de máxima verosimilitud, aceptamos la hipótesis que es más probable dada la información, no necesariamente aunque abrumadoramente más probable. Vea el gráfico a continuación:

ingrese la descripción de la imagen aquí

Usando un enfoque de máxima verosimilitud favoreceríamos la hipótesis alternativa en este ejemplo si el valor del predictor fuera superior a 3, p. Ej. 4, aunque la probabilidad de que este valor se haya derivado de la hipótesis nula hubiera sido mayor que 0.05.

Y aunque el ejemplo con el que comencé la publicación tal vez tenga una carga emocional, podríamos pensar en otros casos, por ejemplo, una mejora técnica. ¿Por qué deberíamos darle tanta ventaja al Status Quo cuando los datos nos dicen que la probabilidad de que la nueva solución sea una mejora es mayor que la probabilidad de que no lo sea?


1
2

1
El OP es correcto porque la premisa es defectuosa aquí, no hay nada en el procedimiento clásico de NHST que requiera que rechacemos al 5%. Este es un fenómeno cultural de valor discutible.
Matthew Drury

1
@Matthew Drury: "elegir personas altas para los equipos de baloncesto" no tiene fallas como estrategia solo porque no incluye la altura como una regla precisa. Aunque hay muchos otros problemas, como usted sabe, permitir que el usuario elija dónde dibujar la línea es una característica de NHST. Mi aversión al riesgo no descartó viajes recientes a París o Londres, pero excluiría las visitas a muchos países: otras personas dibujarían la línea de manera diferente. Estoy de acuerdo en que existe un fenómeno cultural [sic] en la medida en que diferentes grupos tienen diferentes convenciones sobre cuándo rechazar hipótesis.
Nick Cox

No estoy seguro de lo que estás leyendo en mi comentario Nick. Supongo que debería haber sido más claro. Solo deseo que la gente piense más en establecer umbrales específicos del problema.
Matthew Drury

Parece que estás diciendo que NHST es defectuoso porque no implica un nivel de rechazo específico. Estoy de acuerdo con usted sobre los umbrales específicos del problema.
Nick Cox

Respuestas:


17

Digamos que terminas en la corte y no lo hiciste. ¿Crees que es justo que aún tengas un 50% de posibilidades de ser declarado culpable? ¿Es una probabilidad del 50% de ser inocente "culpable más allá de toda duda razonable "? ¿Creería que es justo que tuviera un 5% de posibilidades de ser declarado culpable aunque no lo haya hecho? Si estuviera en la corte, consideraría que el 5% no es lo suficientemente conservador.

πe


En respuesta a su edición de la pregunta:

α


66
α=0.05α=0.05

8

Es como usted dice: depende de la importancia de los errores Falso positivo y Falso negativo.

En el ejemplo que usas, como ya respondió Maarten Buis, ser condenado si hay un 50% de posibilidades de que seas inocente no es justo.

Cuando lo aplique a la investigación, mire de esta manera: imagine que quiere saber si un medicamento nuevo ayuda contra una determinada enfermedad. Digamos que encuentra una diferencia entre su grupo de tratamiento y su grupo de control a favor del tratamiento. ¡Excelente! La medicina debe funcionar, ¿verdad? Puede rechazar la hipótesis nula de que el medicamento no funciona. ¡Su valor p es 0.49! ¡Existe una mayor probabilidad de que el efecto que encontraste se base en la verdad y no por casualidad!
Ahora considere esto: el medicamento tiene efectos adversos desagradables. Solo debes tomarlo si estás convencido de que funciona. Y tu No, porque todavía hay un 51% de posibilidades de que la diferencia que encontraste entre los dos grupos fuera puramente casual.

Me imagino que hay dominios en los que estás satisfecho, por ejemplo, con un 10%. He visto artículos donde se acepta el 10%. También he visto artículos donde eligieron el 2%. Depende de cuán importante creas que es que estás convencido de que rechazar la hipótesis nula se basará en la verdad y no en la casualidad. Apenas puedo imaginar una situación en la que esté satisfecho con un 50% de posibilidades de que la diferencia que encontró se base en pura suerte.


5

.05.50


Usted toma "[h] prueba de hipótesis [para ser] similar a un problema de Clasificación". La aparente similitud aquí es solo superficial; eso no es realmente cierto en un sentido significativo.

.67.67

00100%0.0¯00p<.5) Como resultado, siempre terminaría concluyendo que la hipótesis nula es falsa. Para hacer esto explícito, la premisa errónea en su pregunta es que hay una sola línea azul significativa (como se muestra en su figura) que se puede usar como sugiere.

.50


3

Para agregar a las muy buenas respuestas anteriores: Sí, el 5% es arbitrario, pero independientemente del umbral específico que elija, tiene que ser razonablemente pequeño, de lo contrario, la prueba de hipótesis tiene poco sentido.

Estás buscando un efecto y quieres asegurarte de que tus resultados no se deban al azar. En ese sentido, establece un nivel de significancia que dice básicamente "Si realmente no hubiera ningún efecto (la hipótesis nula es verdadera), esta sería la probabilidad de obtener tales resultados (o más extremos) por pura casualidad" . Establecer esto demasiado alto dará como resultado muchos falsos positivos y socavará su capacidad de obtener una respuesta significativa a su pregunta de investigación.

Como siempre, hay un compromiso involucrado, por lo que la comunidad de investigadores ideó esta guía del 5%. Pero es diferente en diferentes campos. En física de partículas, es más como 0.00001% o algo así.


0

La clasificación y las pruebas de hipótesis son diferentes y se han utilizado de manera diferente . En la mayoría de los casos, las personas usan

  • "Clasificación" "para realizar la tarea de" clasificar algo según cualidades o características compartidas ".
  • Y use la "prueba de hipótesis" para verificar algunos "descubrimientos significativos".

Tenga en cuenta que, en las pruebas de hipótesis, la "hipótesis nula" es "sentido común", pero si podemos rechazar las hipótesis nulas, entonces tenemos un descanso.

Es por eso que tenemos un criterio más estricto en la prueba de hipótesis. Piense en el ejemplo del desarrollo de nuevos drags, queremos ser muy cuidadosos al decir que es significativo y efectivo.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.