¿Es mágico el número 20?


12

Tengo referencias que aconsejaron considerar un tamaño de muestra mínimo de 20 para la distribución de ajuste de datos.

¿Tiene algún sentido esto?

Gracias


3
En general no, en situaciones específicas tal vez. ¿Tiene las referencias y cuáles son sus objetivos?
image_doctor

1
Estoy de acuerdo con @image_doctor: no hay una razón general por la que 20 observaciones se consideren como mínimo; Puede ser el caso en circunstancias muy particulares.
Glen_b -Reinstate Monica el

3
Un valor único funcionará en algunos casos prácticos, como cuando se sabe (con certeza) que la distribución es Poisson y la observación es un recuento grande. Esto no solo permite que la distribución se ajuste, sino que también permite evaluar el posible error en la estimación de su parámetro.
whuber

1
Creo que también he leído que para las distribuciones normales, 30 es la regla general. Me parece que fue algo relacionado con lo cerca que está la t de Student con 30 grados de libertad de lo normal. Pero es solo una regla general. No es magia en el mismo sentido que el valor de es. e
Wayne

1

Respuestas:


13

Mucho de esto depende de la distribución esperada y de cuál es su pregunta de investigación. Como regla general, debe tener cuidado con las reglas generales. Si conoce la distribución esperada, ejecute algunas simulaciones de diferentes tamaños y determine con qué frecuencia las simulaciones de muestra reflejan la distribución real. Esto debería darle alguna orientación como el tamaño de muestra final requerido.


+1 para evitar declaraciones extremas y dogmáticas.
whuber

1
+1 en parte debido a "Como regla general, debes tener cuidado con las reglas generales".
Wolfgang

7

Pensé que el número mágico del tamaño de la muestra es 1,000. Eso es lo que tienen la mayoría de las encuestas nacionales de EE. UU., Para producir un margen de error de aproximadamente el 3%: En realidad, los tamaños de muestra efectivos son más bajos de 1,000, más o menos 700, más o menos, debido a la desigual probabilidad de selección y ajustes por falta de respuesta, lo que lleva al margen de error de 3.7%.

z0.9750.50.5/1000=1.960.158=0.031

Con solo 20 observaciones, técnicamente no puede obtener valores muy altos de asimetría y curtosis (normalizado por las desviaciones estándar de la muestra, por supuesto):

|skewness|n2n1=4.58,|kurtosis|n23n+3n1=18.05.
Si está ajustando una distribución por el método de los momentos, obviamente no puede ajustar una distribución lognormal con una varianza razonablemente típica de registros igual a 1 (distribuciones de ingresos en países con desigualdad de ingresos moderada a alta; EE. UU., Brasil, Sudáfrica, Rusia tiene una mayor varianza de ingresos log), ya que tiene una curtosis sorprendentemente grande de 111. Por supuesto, sería una tontería ajustar una distribución lognormal por el método de los momentos, pero solo quería mostrar que algunas distribuciones del mundo real probablemente sea más complicado de lo que se puede describir con 20 observaciones.

Se puede tomar otra visión sobre el ajuste de la distribución a través de la estimación de la densidad del núcleo: para la muestra de tamaño , la regla más popular da el ancho de banda de que efectivamente abarca toda la distribución utilizando el núcleo gaussiano. En otras palabras, la mayoría de las muestras de tamaño 20 se verán normales si ejecuta la estimación de la densidad del núcleo a través de ellas, a menos que claramente tengan una curtosis notable (lo que significaría que hay algunas observaciones periféricas que se mostrarán como protuberancias separadas en la densidad del núcleo trama).h = 1,06 σ n - 1 / 5 = 0,58 σn=20

h=1.06σ^n1/5=0.58σ^

No sigo la relevancia de los límites en los momentos de las muestras. Por supuesto , puede obtener estimaciones extremadamente altas de asimetría y curtosis en una muestra. Inténtelo: cuando es la muestra media y la SD de la muestra, entonces la estimación de asimetría a la coincidencia de momentos en una distribución lognormal es . Genere una muestra de partir de una distribución con una gran SD geométrica ( funcionará) y obtendrá enormes estimaciones de asimetría. Entonces, ¿qué pasa si la asimetría de la muestra cruda es pequeña? s ( s / m ) ( 3 + ( s / m ) 2 ) 20 2ms(s/m)(3+(s/m)2)202
whuber

1
Enlace obligatorio al "Síndrome de poder de diez" en el contexto del uso de 1000 como tamaño de muestra (en el contexto de estadísticas relacionadas con la programación, pero se aplica en otros lugares): zedshaw.com/essays/programmer_stats.html
Gary S. Weaver

1
@whuber, eres demasiado inteligente, no te ofendas. La mayoría de las personas calcularía la asimetría como el momento de los datos, no a través de una suposición paramétrica como usted acaba de hacer. Ahora, si dije "Supongamos que está ajustando una distribución de Pearson por método de momentos", ¿sería relevante este argumento?
StasK

Sí, sería relevante en muchos casos. Seguí su sugerencia de ajustar una distribución lognormal utilizando el método de los momentos y obtuve un gran sesgo, no es de extrañar. Esto se debe a que solo coincidí los dos primeros momentos, dejando que el tercero sea lo que sea. Si tuviera que seguir el mismo procedimiento con cualquier familia de distribución de dos o menos parámetros que permita terceros momentos arbitrariamente grandes, creo que vería el mismo fenómeno. Con la familia Pearson, que tiene más de dos parámetros, probablemente intentemos igualar la asimetría empírica, limitando así su valor.
whuber

2

No No remotamente

Piénselo de esta manera: si tuviera un espacio de mil millones de dimensiones (humanidad) y extrajera 20 muestras usando cualquier método (20 personas), ¿podría usar la información obtenida para comprender razonablemente bien a cada persona en el planeta? No remotamente Hay 100 mil millones de estrellas en la galaxia Vía Láctea. Al elegir (al azar) 20 de ellos, ¿puedes entender toda la astronomía galáctica? De ninguna manera.

En un espacio de 1-d hay algunas heurísticas, en su mayoría reglas generales válidas que pueden ayudar, que describen cuántas medidas desea tomar. Incluyen diversos grados de utilidad y justificación, pero en cierto sentido están mejor defendidos que "20". Incluyen "5 mediciones por variable en su ecuación de ajuste", "al menos 35 muestras de una función de densidad gaussiana" y "al menos 300 muestras de una función binomial". Los estadísticos reales y no un nerd-bombardero como yo podrán asociar intervalos de confianza e incertidumbres particulares de los primeros principios y sin una calculadora.

a3r3+a2r2+a1r+a0a1r+a0dr

Recuerde que "mejor" es una idea sin sentido sin tener una "medida de bondad". ¿Cuál es el mejor camino? Si vas a tu destino, quizás sea extremadamente largo y agradable. Si vas a tu propia coronación, tal vez una corta y magnífica. Si estás caminando por el desierto, uno fresco y sombreado. ¿Cuál es el "mejor" número de muestras? Depende tan asombrosamente de su problema que no puede comenzar a ser respondido con autoridad antes de eso. ¿Todos ellos? ¿Tantos como puedas? Esos solo tienen un poco de sentido. Sí, es como estar parcialmente muerto o embarazada. Ser parcialmente insensato es consecuencia de un problema muy poco definido.

Si está tratando de pronosticar con precisión el flujo de aire sobre un avión? Es posible que necesite varios millones de mediciones para ingresar al parque de pelota. Si quieres saber qué tan alto eres, uno o dos pueden hacer el trabajo.

Esto no saca a relucir los puntos importantes de "abarcar el espacio" y "muestrear en lugares que minimizan la variación en las estimaciones de parámetros", pero la pregunta sugería que sería relevante una respuesta más a nivel de primer año. Estas cosas requieren saber más sobre la naturaleza del problema antes de que puedan implementarse.

Nota: editado para mejorar según las sugerencias.


1
Parece haber leído "mínimo" en la pregunta como "máximo" o "suficiente". Nada de lo que ha escrito parece contradecir una regla general mínima de 20.
whuber

2
@whuber, trabajo entre personas que piensan que las mediciones adicionales son caras, y si les proporciono un "número mínimo de muestras", no lo consideran una desigualdad en la que el número potencial de muestras es mayor que eso. Piensan que es el límite para un problema de optimización de minimizar el costo, y tratan de operar solo con ese valor. Es un producto de mi entorno.
EngrStudent - Restablece a Mónica el

1

Tal vez para el contexto en el que está realizando pruebas t o ANOVAR, un contexto bastante común en aplicaciones estadísticas básicas, se trata del tamaño de muestra que necesita para cada grupo para poder tener mucha confianza en que la media de cada grupo sea aproximadamente normalmente distribuido (de acuerdo con el teorema del límite central) cuando se puede suponer que la distribución es más o menos unimodal y no extremadamente pico. Veinte y no diecinueve o veintiuno porque es un número redondo.


0

Consulte la página de Poder y Tamaño de muestra de Russ Lenth para ver algunos artículos sobre el tema (en la sección de Consejos en el medio de la página).

El número mínimo de individuos en su muestra varía enormemente según el tamaño de la población, el número de dimensiones (si está dividiendo los datos en categorías) y las medidas (si está tomando medidas continuas sobre los individuos de la muestra) que está tomando, el tamaño de su universo, la técnica de análisis que pretende utilizar (este es un punto muy importante: la técnica se define durante la planificación del estudio o durante el diseño experimental , nunca después) y la complejidad mostrada por estudios anteriores.

Y 20 no es suficiente para ninguna investigación seria fuera de los temas de "enfermedades raras" y "psicología experimental" (psicología como Popper definió en su trabajo).

Refinando la respuesta basada en los comentarios a continuación:

Y 20 no es suficiente para ninguna investigación seria fuera de los temas de "enfermedades raras" y "psicología experimental" (psicología como Popper definió en su trabajo) que implica ajustar una distribución de probabilidad .

Y no, no debe seguir envenenando a las personas para obtener una muestra de gran tamaño. El sentido común y las pruebas secuenciales le ordenan detenerse.


3
Creo que es demasiado extremo dar una declaración general de que una muestra de 20 "no es suficiente para ninguna investigación seria". Esto contradice sus afirmaciones anteriores de que el tamaño de muestra apropiado varía según el propósito, la población, etc. En algunos casos, un resultado falsificador es suficiente para matar una teoría completa.
whuber

1
Los estudios de caso y la investigación cualitativa pueden funcionar bien con 1-5 participantes.
Behacad

Ok, agregue "estudios de caso" y "grupos focales" a la lista :) Estos están incluidos en lo que dije que Popper llamó "psicología experimental".
Lucas Gallindo

44
Entonces es mejor agregar astronomía, medicina, biología, química, ... En otras palabras, es tan malo afirmar que 20 "no es suficiente" como afirmar que es lo suficientemente bueno. En realidad, probablemente sea peor. Imagine un ensayo de seguridad alimentaria en el que los primeros ocho sujetos que recibieron un suplemento nutricional murieron por efectos secundarios imprevistos. ¿Recomendaría continuar las pruebas sobre la base de su declaración "20 no es suficiente"?
whuber
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.