Respuestas:
Comencemos con la intuición. La pendiente de la ordinaria regresión de mínimos cuadrados de contra h ( X ) , para cualquier función h , es proporcional a la covarianza de h ( X ) y Y . La suposición es que todas las regresiones son todas cero (no solo las lineales). Si imagina ( X , Y ) representado por una nube de puntos (realmente, una nube de densidad de probabilidad), no importa cómo la corte verticalmente y reordene las rebanadas (que realiza el mapeo h), la regresión sigue siendo cero. Esto implica que las expectativas condicionales de (que son la función de regresión) son todas constantes. Podríamos perder el tiempo con las distribuciones condicionales manteniendo las expectativas constantes, arruinando así cualquier posibilidad de independencia. Por lo tanto, debemos esperar que la conclusión no siempre sea válida.
Hay contraejemplos simples. Considere un espacio muestral de nueve elementos abstractos y una medida discreta con probabilidad determinada por
Defina
Podríamos mostrar estas probabilidades como una matriz
(con todas las entradas multiplicadas por ) indexadas en ambas direcciones por los valores - 1 , 0 , 1 .
Las probabilidades marginales son y f Y ( - 1 ) = f Y ( 1 ) = 4 / 10 ;
Esto fue construido para hacer que la distribución condicional de cuando X = 0 sea diferente de las otras distribuciones condicionales para X = ± 1 . Puede ver esto comparando la columna central de la matriz con las otras columnas. La simetría en las coordenadas Y y en todas las probabilidades condicionales muestra inmediatamente que todas las expectativas condicionales son cero, por lo que todas las covarianzas son cero, sin importar cómo los valores asociados de X puedan reasignarse a las columnas.
Para aquellos que pueden no estar convencidos, el contraejemplo puede demostrarse a través del cálculo directo: solo hay funciones que deben considerarse y para cada una de ellas la covarianza es cero.