¿Por qué varias (si no todas) las pruebas de hipótesis paramétricas suponen un muestreo aleatorio?


12

Pruebas como Z, t y varias otras suponen que los datos se basan en un muestreo aleatorio. ¿Por qué?

Supongamos que estoy haciendo una investigación experimental, donde me importa mucho más la validez interna que la externa. Entonces, si mi muestra podría estar un poco sesgada, está bien, ya que he aceptado no inferir la hipótesis para toda la población. Y la agrupación seguirá siendo aleatoria, es decir, elegiré por conveniencia a los participantes de la muestra, pero los asignaré aleatoriamente a diferentes grupos.

¿Por qué no puedo ignorar esta suposición?


Si la técnica de muestreo introduce un sesgo, entonces no es 'aleatorio'. Si no introduce ningún sesgo, entonces es 'aleatorio' (para alguna definición de aleatorio ;-). He tenido esquemas de muestreo que simplemente tomaron cada séptima muestra para crear un tamaño de muestra coincidente con la muestra del contador. Sin embargo, sabía que no había un aspecto especial en esa selección, por lo que lo que puede considerarse como un proceso de muestreo no aleatorio sigue siendo efectivamente aleatorio. Es lo mismo que seleccionar bolas 1,2,3,4,5,6 en la lotería. Es tan aleatorio como cualquier otra secuencia.
Philip Oakley

1
@PhilipOakley: seleccionar bolas 1,2,3,4,5,6 en la lotería te da la misma oportunidad de ganar que cualquier otra selección, pero reduce tus ganancias esperadas ya que es más probable que tengas que compartir el premio con otros que tuvo la misma idea
Henry

1
El muestreo sistemático, como el descrito por @Philip, a menudo se analiza como si produjera muestras aleatorias simples, pero tiene dificultades. Por ejemplo, si midiera un proceso de fabricación todos los días y muestreara cada séptima medición, estaría sujeto a confundir sus resultados con un efecto del día de la semana, ya que (obviamente) estaría muestreando el mismo día cada semana. Necesita trabajar más duro para pensar y abordar tales sutilezas cuando se trata de muestras no aleatorias.
whuber

1
@whuber, por supuesto. ¡Uno debe pensar mucho (y ampliamente) sobre estas cosas! En mi caso, tuve horas de video, con cientos de eventos, con largos intervalos entre ellos, por lo que era necesario reducir el tamaño de los datos del conjunto sin eventos para una regresión logística simple (cada cuadro considerado de forma independiente, pequeños cambios entre cuadros), por lo que dejar caer muchos marcos que no son de eventos fue razonable. El aspecto de la secuencia de tiempo se consideró por separado.
Philip Oakley

1
@Philip Curiosamente, casi al mismo tiempo que estaba escribiendo ese comentario sobre la aleatoriedad no existente, el NIST emitió un comunicado de prensa alegando que sí . Aparece una cuenta en la edición de hoy (4 de abril de 2018) de Nature .
whuber

Respuestas:


18

Si no está haciendo ninguna inferencia para un grupo más amplio que su muestra real, entonces no hay aplicación de pruebas estadísticas en primer lugar, y no surge la cuestión del "sesgo". En este caso, simplemente calcularía estadísticas descriptivas de su muestra, que son conocidas. Del mismo modo, no se trata de la "validez" del modelo en este caso: solo está observando variables y registrando sus valores, y descripciones de los aspectos de esos valores.

Una vez que decida ir más allá de su muestra, para hacer inferencias sobre algún grupo más grande, necesitará estadísticas y tendrá que considerar cuestiones como el sesgo de muestreo, etc. En esta aplicación, el muestreo aleatorio se convierte en una propiedad útil para ayudar a ser confiable inferencias del grupo más amplio de interés. Si no tiene un muestreo aleatorio (y no conoce las probabilidades de sus muestras basadas en la población), entonces se hace difícil / imposible hacer inferencias confiables sobre la población.


5

En la investigación científica real, es bastante raro tener datos provenientes de un muestreo aleatorio verdadero. Los datos son casi siempre muestras de conveniencia. Esto afecta principalmente a qué población se puede generalizar. Dicho esto, incluso si fueran una muestra de conveniencia, vinieron de algún lugar, solo necesita ser claro sobre dónde y las limitaciones que eso implica. Si realmente cree que sus datos no son representativos de nada, entonces su estudio no valdrá la pena en ningún nivel, pero eso probablemente no sea cierto 1 . Por lo tanto, a menudo es razonable considerar sus muestras como extraídas de alguna parte y utilizar estas pruebas estándar, al menos en un sentido cubierto o calificado.

Sin embargo, existe una filosofía diferente de las pruebas que argumenta que debemos alejarnos de esos supuestos y las pruebas que se basan en ellos. Tukey fue un defensor de esto. En cambio, la mayor parte de la investigación experimental se considera (internamente) válida porque las unidades de estudio (p. Ej., Pacientes) se asignaron aleatoriamente a los brazos. Dado esto, puede usar pruebas de permutación , que en su mayoría solo asumen que la aleatorización se realizó correctamente. El argumento en contra de preocuparse demasiado por esto es que las pruebas de permutación generalmente mostrarán lo mismo que las pruebas clásicas correspondientes, y tienen más trabajo para realizar. De nuevo, las pruebas estándar pueden ser aceptables.

1. Para más información en este sentido, puede ser útil leer mi respuesta aquí: Identificar la población y las muestras en un estudio .


3

Las pruebas como Z, t y varias otras se basan en distribuciones de muestreo conocidas de las estadísticas relevantes. Esas distribuciones de muestreo, como se usan generalmente, se definen para la estadística calculada a partir de una muestra aleatoria.

A veces puede ser posible diseñar una distribución de muestreo relevante para el muestreo no aleatorio, pero en general probablemente no sea posible.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.