La pregunta que quiero hacer es esta: ¿cómo varía la proporción de muestras dentro de 1 SD de la media de una distribución normal a medida que aumenta el número de variables?
(Casi) todos saben que en una distribución normal unidimensional, el 68% de las muestras se pueden encontrar dentro de 1 desviación estándar de la media. ¿Qué pasa en 2, 3, 4, ... dimensiones? Sé que se pone menos ... pero ¿por cuánto (precisamente)? Sería útil tener una tabla que muestre las cifras de 1, 2, 3 ... 10 dimensiones, así como 1, 2, 3 ... 10 SD. ¿Alguien puede señalar una mesa así?
Un poco más de contexto: tengo un sensor que proporciona datos en hasta 128 canales. Cada canal está sujeto a ruido eléctrico (independiente). Cuando percibo un objeto de calibración, puedo promediar un número suficiente de mediciones y obtener un valor medio en los 128 canales, junto con 128 desviaciones estándar individuales.
PERO ... cuando se trata de las lecturas instantáneas individuales, los datos no responden tanto como 128 lecturas individuales, sino como una sola lectura de una cantidad de vector (hasta) 128-dimensonal. Ciertamente, esta es la mejor manera de tratar las pocas lecturas críticas que tomamos (generalmente 4-6 de las 128).
Quiero tener una idea de lo que es la variación "normal" y lo que es "atípico" en este espacio vectorial. Estoy seguro de que he visto una tabla como la que describí que se aplicaría a este tipo de situación. ¿Alguien puede señalar una?