Digamos que tenemos una variable aleatoria con un rango de valores delimitados por y b , donde a es el valor mínimo yb el valor máximo.
Me dijeron que como , donde es el tamaño de nuestra muestra, la distribución muestral de nuestras medias muestrales es una distribución normal. Es decir, a medida que aumentamos nos acercamos más y más a una distribución normal, pero el límite real como es igual a una distribución normal.
Sin embargo, ¿no es parte de la definición de la distribución normal que tiene que extenderse de a ?
Si el máximo de nuestro rango es , entonces la media máxima de la muestra (independientemente del tamaño de la muestra) será igual a , y la media mínima de la muestra igual a .
Entonces, me parece que incluso si tomamos el límite cuando aproxima al infinito, nuestra distribución no es una distribución normal real, porque está limitada por y .
¿Qué me estoy perdiendo ?