Tal estimador no existe.
La intuición es que la mediana puede permanecer fija mientras cambiamos libremente la densidad de probabilidad a ambos lados de la misma, de modo que cualquier estimador cuyo valor promedio sea la mediana para una distribución tendrá un promedio diferente para la distribución alterada, haciéndola sesgada. La siguiente exposición le da un poco más de rigor a esta intuición.
Nos centramos en las distribuciones tienen medianas únicas m , de modo que, por definición, F ( m ) ≥ 1Fm y F ( x ) < 1 / 2 para todos x < m . Arregle un tamaño de muestra n ≥ 1 y suponga que t : [ 0 , 1 ] n → [ 0 , 1 ] estima m . (Será suficiente que tF(m)≥1/2F(x)<1/2x<mn≥1t:[0,1]n→[0,1]mtSólo estar encerrado, pero por lo general no se considera seriamente estimadores que producen valores evidentemente imposibles) Hacemos. no hay suposiciones acerca de ; ni siquiera tiene que ser continuo en ningún lado.t
El significado de siendo imparcial (para este tamaño de muestra fijo) es quet
EF[t(X1,…,Xn)]=m
para cualquier muestra iid con . Un "estimador imparcial" t es uno con esta propiedad para todos tales F .Xi∼FtF
Supongamos que existe un estimador imparcial. Derivaremos una contradicción aplicándola a un conjunto de distribuciones particularmente simple. Considere las distribuciones tienen estas propiedades:F=Fx,y,m,ε
;0≤x<y≤1
;0<ε<(y−x)/4
;x+ε<m<y−ε
;Pr(X=x)=Pr(X=y)=(1−ε)/2
; yPr(m−ε≤X≤m+ε)=ε
es uniforme en [ m - ε , m + ε ] .F[m−ε,m+ε]
Estas distribuciones colocan la probabilidad en cada uno de x e y y una pequeña cantidad de probabilidad colocada simétricamente alrededor de m entre x e y . Esto hace que m la mediana única de F . (Si le preocupa que esta no sea una distribución continua, introdúzcala con un Gaussiano muy estrecho y trunca el resultado a [ 0 , 1 ] : el argumento no cambiará).(1−ε)/2xymxymF[0,1]
Ahora, para cualquier estimador medio putativo , una estimación fácil muestra que E [ t ( X 1 , X 2 , … , X n ) x y m x + ε y - ε ε m F x , y , m , εt es estrictamente dentro de ε de la media de la 2 n valores t ( x 1 , x 2 , … , X n ) donde x i varía sobre todas las combinaciones posibles dee. Sin embargo, podemos variarE[t(X1,X2,…,Xn)]ε2nt(x1,x2,…,xn)xixymentre e , un cambio de al menos (en virtud de las condiciones 2 y 3). Por lo tanto, existe una , y de ahí una distribución correspondiente , para lo cual esta expectativa no es igual a la mediana, QED.x+εy−εεmFx,y,m,ε