Observe que la variable aleatoria es una función de Z = ( Z 1 , ... , Z n ) solamente. Para un n -vector, z , escribimos i j ( z ) para el índice de la j ª más grande de coordenadas. Supongamos también que P z ( A ) = P ( X 1 ∈ A ∣ Z 1 = z ) denota la distribución condicional de X 1yojZ =( Z1, ... , Znorte)nortezyoj( z )jPAGz( A ) = P( X1∈ A ∣ Z1= z)X1dado .Z1
Si desglosamos las probabilidades de acuerdo con el valor de y desintegramos wrt Z obtenemosyojZ
PAG( Xyoj∈ A )=====∑kPAG( Xk∈ A , ij= k )∑k∫( ij( z) = k )PAG( Xk∈ A ∣ Z = z ) P( Z ∈ dz )∑k∫( ij( z) = k )PAG( Xk∈ A ∣ Zk= zk) P( Z ∈ dz )∑k∫( ij( z) = k )PAGzk( A ) P( Z ∈ dz )∫PAGz( A ) P( Zyoj∈ dz)
Este argumento es bastante general y se basa solo en los supuestos de iid establecidos, y podría ser cualquier función dada de ( X k , Y k ) .Zk( Xk, Yk)
Bajo los supuestos de las distribuciones normales (tomando ) y Z k es la suma, la distribución condicional de X 1 dado Z 1 = z es
N ( σ 2 xσy= 1ZkX1Z1= z
y @probabilityislogic muestra cómo calcular la distribución deZij, por lo tanto, tenemos expresiones explícitas para ambas distribuciones que entran en la última integral anterior. Si la integral se puede calcular analíticamente es otra cuestión. Es posible que pueda, pero fuera de mi cabeza no puedo decir si es posible. Para el análisis asintótico cuandoσx→0oσx→∞podría no ser necesario.
norte( σ2X1 + σ2Xz, σ2X( 1 - σ2X1 + σ2X) )
ZyojσX→ 0σX→ ∞
La intuición detrás del cálculo anterior es que este es un argumento de independencia condicional. Dado las variables X k e i j son independientes.Zk= zXkyoj