Para las dependencias que surgen cuando consideramos la varianza de la muestra, escribimos
(n−1)s2=∑i=1n((Xi−μ)−(x¯−μ))2
=∑i=1n(Xi−μ)2−2∑i=1n((Xi−μ)(x¯−μ))+∑i=1n(x¯−μ)2
y después de una pequeña manipulación,
=∑i=1n(Xi−μ)2−n(x¯−μ)2
Por lo tanto
n−−√(s2−σ2)=n−−√n−1∑i=1n(Xi−μ)2−n−−√σ2−n−−√n−1n(x¯−μ)2
Manipulando,
n−−√(s2−σ2)=n−−√n−1∑i=1n(Xi−μ)2−n−−√n−1n−1σ2−nn−1n−−√(x¯−μ)2
=nn−−√n−11n∑i=1n(Xi−μ)2−n−−√n−1n−1σ2−nn−1n−−√(x¯−μ)2
=nn−1[n−−√(1n∑i=1n(Xi−μ)2−σ2)]+n−−√n−1σ2−nn−1n−−√(x¯−μ)2
El término convierte en unidad asintóticamente. El término es determinista y se pone a cero como .n/(n−1)n√n−1σ2n→∞
También tenemos . El primer componente converge en distribución a Normal, el segundo converge en probabilidad a cero. Luego, según el teorema de Slutsky, el producto converge en probabilidad a cero,n−−√(x¯−μ)2=[n−−√(x¯−μ)]⋅(x¯−μ)
n−−√(x¯−μ)2→p0
Nos quedamos con el término
[n−−√(1n∑i=1n(Xi−μ)2−σ2)]
Alertado por un ejemplo letal ofrecido por @whuber en un comentario a esta respuesta , queremos asegurarnos de que no sea constante. Whuber señaló que si es un Bernoulli entonces esta cantidad es una constante. Entonces, excluyendo las variables para las cuales esto sucede (quizás otras dicotómicas, ¿no solo binario?), Para el resto tenemos(Xi−μ)2Xi(1/2)0/1
E(Xi−μ)2=σ2,Var[(Xi−μ)2]=μ4−σ4
y entonces el término bajo investigación es un tema habitual del Teorema del Límite Central clásico, y
n−−√(s2−σ2)→dN(0,μ4−σ4)
Nota: el resultado anterior, por supuesto, también es válido para muestras distribuidas normalmente, pero en este último caso también tenemos disponible un resultado de distribución de chi-cuadrado de muestra finita.