¿


9

¿ implica independencia de X e Y ?Cov(f(X),Y)=0f(.)XY

No soy más que familiarizado con la siguiente definición de independencia entre e Y .XY

FX,y(X,y)=FX(X)Fy(y)

1
Necesita , no solo C o v ( f ( X ) , Y ) = 0Cov(F(X),sol(Y))=0 0 para todos (medible) F(),sol()Cov(F(X),Y)=0 0F()
Dilip Sarwate

Respuestas:


7

Comencemos con la intuición. La pendiente de la ordinaria regresión de mínimos cuadrados de contra h ( X ) , para cualquier función h , es proporcional a la covarianza de h ( X ) y Y . La suposición es que todas las regresiones son todas cero (no solo las lineales). Si imagina ( X , Y ) representado por una nube de puntos (realmente, una nube de densidad de probabilidad), no importa cómo la corte verticalmente y reordene las rebanadas (que realiza el mapeo hYh(X)hh(X)Y(X,Y)h), la regresión sigue siendo cero. Esto implica que las expectativas condicionales de (que son la función de regresión) son todas constantes. Podríamos perder el tiempo con las distribuciones condicionales manteniendo las expectativas constantes, arruinando así cualquier posibilidad de independencia. Por lo tanto, debemos esperar que la conclusión no siempre sea válida.Y

Hay contraejemplos simples. Considere un espacio muestral de nueve elementos abstractos y una medida discreta con probabilidad determinada por

Ω={ωi,j1i,j,1}

PAG(ω0 0,0 0)=0 0; PAG(ω0 0,j)=1/ /5 5(j=±1); PAG(ωyo,j=1/ /10) de otra manera.

Defina

X(ωyo,j)=j, Y(ωyo,j)=yo.

Podríamos mostrar estas probabilidades como una matriz

(12110 01121)

(con todas las entradas multiplicadas por ) indexadas en ambas direcciones por los valores - 1 , 0 , 1 .1/ /10-1,0 0,1

Las probabilidades marginales son y f Y ( - 1 ) = f Y ( 1 ) = 4 / 10 ;

FX(-1)=FX(1)=3/ /10;FX(0 0)=4 4/ /10
tal como se calcula por las sumas de columna y sumas de filas de la matriz, respectivamente. Desde f X ( 0 ) f Y ( 0 ) = ( 4 / 10 ) ( 2 / 10 ) 0 = P ( ω 0 , 0 ) = f X Y ( 0 , 0 ) , estas variables no son independientes.
FY(-1)=FY(1)=4 4/ /10;FY(0 0)=2/ /10,
FX(0 0)FY(0 0)=(4 4/ /10)(2/ /10)0 0=PAG(ω0 0,0 0)=FXY(0 0,0 0),

Esto fue construido para hacer que la distribución condicional de cuando X = 0 sea diferente de las otras distribuciones condicionales para X = ± 1 . Puede ver esto comparando la columna central de la matriz con las otras columnas. La simetría en las coordenadas Y y en todas las probabilidades condicionales muestra inmediatamente que todas las expectativas condicionales son cero, por lo que todas las covarianzas son cero, sin importar cómo los valores asociados de X puedan reasignarse a las columnas.YX=0 0X=±1YX

Para aquellos que pueden no estar convencidos, el contraejemplo puede demostrarse a través del cálculo directo: solo hay funciones que deben considerarse y para cada una de ellas la covarianza es cero.27

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.