El problema con su línea de razonamiento es
"Creo que siempre podemos suponer que es independiente de las otras X ".XX
no es independiente de X . El símbolo X se usa para referirse a la misma variable aleatoria aquí. Una vez que conoce el valor de la primera X que aparece en su fórmula, esto también corrige el valor de la segunda X que aparece. Si desea que se refieran a variables aleatorias distintas (y potencialmente independientes), debe denotarlas con letras diferentes (por ejemplo, X e Y ) o utilizando subíndices (por ejemplo, X 1 y X 2 ); este último se usa a menudo (pero no siempre) para denotar variables extraídas de la misma distribución.XXXXXXYX1X2
Si dos variables e Y son independientes entonces Pr ( X = un | Y = b ) es el mismo que Pr ( X = una ) : conociendo el valor de Y no nos da ninguna información adicional sobre el valor de X . Pero Pr ( X = a | X = b )XYPr(X=a|Y=b)Pr(X=a)YXPr(X=a|X=b) es si un = b y 0 de otro modo: conocer el valor de X1a=b0Xle da información completa sobre el valor de . [Puede reemplazar las probabilidades en este párrafo por funciones de distribución acumulativa, o cuando corresponda, funciones de densidad de probabilidad, esencialmente con el mismo efecto.]X
Otra forma de ver las cosas es que si dos variables son independientes, entonces tienen correlación cero (¡aunque la correlación cero no implica independencia !), Pero está perfectamente correlacionada consigo misma, Corr ( X , X ) = 1, por lo que X no puede ser independiente de sí mismo. Tenga en cuenta que dado que la covarianza viene dada por Cov ( X , Y ) = Corr ( X , Y ) √XCorr(X,X)=1X , luegoCov(X,X)=1 √Cov(X,Y)=Corr(X,Y)Var(X)Var(Y)−−−−−−−−−−−−√
Cov(X,X)=1Var(X)2−−−−−−−√=Var(X)
La fórmula más general para la varianza de una suma de dos variables aleatorias es
Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y)
En particular, , entoncesCov(X,X)=Var(X)
Var(X+X)=Var(X)+Var(X)+2Var(X)=4Var(X)
que es lo mismo que habrías deducido de aplicar la regla
Var(aX)=a2Var(X)⟹Var(2X)=4Var(X)
Si está interesado en la linealidad, entonces podría estar interesado en la bilinealidad de la covarianza. Para las variables aleatorias , X , Y y Z (ya sea dependiente o independiente) y las constantes de un , b , c y d que tenemosWXYZabcd
Cov(aW+bX,Y)=aCov(W,Y)+bCov(X,Y)
Cov(X,cY+dZ)=cCov(X,Y)+dCov(X,Z)
and overall,
Cov(aW+bX,cY+dZ)=acCov(W,Y)+adCov(W,Z)+bcCov(X,Y)+bdCov(X,Z)
You can then use this to prove the (non-linear) results for variance that you wrote in your post:
Var(aX)=Cov(aX,aX)=a2Cov(X,X)=a2Var(X)
Var(aX+bY)Var(aX+bY)=Cov(aX+bY,aX+bY)=a2Cov(X,X)+abCov(X,Y)+baCov(X,Y)+b2Cov(Y,Y)=a2Var(X)+b2Var(Y)+2abCov(X,Y)
The latter gives, as a special case when a=b=1,
Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y)
When X and Y are uncorrelated (which includes the case where they are independent), then this reduces to Var(X+Y)=Var(X)+Var(Y).
So if you want to manipulate variances in a "linear" way (which is often a nice way to work algebraically), then work with the covariances instead, and exploit their bilinearity.