Reducido vs imparcial : estimadores de


22

Ha habido cierta confusión en mi cabeza acerca de dos tipos de estimadores del valor poblacional del coeficiente de correlación de Pearson.

A. Fisher (1915) mostró que para la población normal bivariada, empírico es un estimador de sesgado negativamente , aunque el sesgo puede ser de una cantidad prácticamente considerable solo para muestras pequeñas ( ). La muestra subestima en el sentido de que está más cerca de que . (Excepto cuando este último es o , porque entonces es imparcial). Se han propuesto varios estimadores casi imparciales de , el mejor probablemente sea Olkin y Pratt (1958)ρ n < 30 r ρ 0 ρ 0 ± 1 rrρn<30rρ0ρ0±1rρ corregido :r

runbiased=r[1+1r22(n3)]

B. Se dice que en la regresión observada sobreestima la R-cuadrado de la población correspondiente. O, con una regresión simple, es que sobreestima . En base a ese hecho, he visto muchos textos que dicen que está sesgado positivamente en relación con , lo que significa un valor absoluto: está más lejos de que (¿es esa afirmación verdadera?). Los textos dicen que es el mismo problema que la sobreestimación del parámetro de desviación estándar por su valor de muestra. Existen muchas fórmulas para "ajustar" observado más cerca de su parámetro de población, Wherry's (1931)r 2 ρ 2 rR2r2ρ2rr 0 ρ R 2ρr0ρR2 Radj2 es el más conocido (pero no el mejor). La raíz de tal ajustada se llama encogida :radj2 r

rshrunk=±1(1r2)n1n2

Presente hay dos estimadores diferentes de . Muy diferente: el primero infla , el segundo desinfla . ¿Cómo reconciliarlos? ¿Dónde usar / informar uno y dónde - el otro?r rρrr

En particular, ¿ puede ser cierto que el estimador "reducido" también es (casi) imparcial, como el "imparcial", pero solo en el contexto diferente , en el contexto asimétrico de regresión. Porque, en la regresión de MCO consideramos los valores de un lado (el predictor) como fijos, atendiendo sin error aleatorio de una muestra a otra. (Y para agregar aquí, la regresión no necesita normalidad bivariada ).


Me pregunto si esto se reduce a algo basado en la desigualdad de Jensen. Eso, y la normalidad bivariada es probablemente una mala suposición en la mayoría de los casos.
shadowtalker

1
Además, mi comprensión del problema en B. es que la regresión es una sobreestimación porque el ajuste de regresión puede mejorarse arbitrariamente agregando predictores. Eso no me parece el mismo problema que en A.r2
shadowtalker

¿Es realmente cierto que es una estimación positivamente sesgada de para todos los valores de ? Para la distribución normal bivariada, este no parece ser el caso para suficientemente grande. ρ 2 ρ ρr2ρ2ρρ
NRH

¿Puede el sesgo ir en la dirección opuesta para el cuadrado de un estimador? Por ejemplo, con un estimador más simple, ¿se puede demostrar que para algunos rangos de ? Creo que esto sería difícil de hacer si , pero tal vez podría resolverse un ejemplo más simple. θ θ = ρE[θ^θ]<0<E[θ^2θ2]θθ=ρ
Anthony

Respuestas:


1

Con respecto al sesgo en la correlación: cuando los tamaños de muestra son lo suficientemente pequeños como para que el sesgo tenga algún significado práctico (por ejemplo, el n <30 que sugirió), es probable que el sesgo sea la menor de sus preocupaciones, porque la inexactitud es terrible.

Con respecto al sesgo de R 2 en la regresión múltiple, hay muchos ajustes diferentes que pertenecen a la estimación de población imparcial versus la estimación imparcial en una muestra independiente de igual tamaño. Ver Yin, P. y Fan, X. (2001). Estimación de la contracción de R 2 en regresión múltiple: una comparación de métodos analíticos. The Journal of Experimental Education, 69, 203-224.

Los métodos de regresión de hoy en día también abordan la reducción de los coeficientes de regresión, así como R 2 como consecuencia, por ejemplo, la red elástica con validación cruzada k- fold, ver http://web.stanford.edu/~hastie/Papers/ elasticnet.pdf .


1
No sé si esto realmente responde la pregunta
shadowtalker

1

Creo que la respuesta está en el contexto de la regresión simple y la regresión múltiple. En una regresión simple con un IV y un DV, el R sq no está sesgado positivamente, y de hecho puede estar sesgado negativamente dado que r está sesgado negativamente. Pero en la regresión múltiple con varios IV que pueden estar correlacionados, R ^ {2} puede estar sesgado positivamente debido a cualquier "supresión" que pueda estar ocurriendo. Por lo tanto, mi opinión es que R2 observado sobreestima la población R-cuadrado correspondiente, pero solo en regresión múltiple


1
R sq is not positively biased, and in-fact may be negatively biasedInteresante. ¿Puedes mostrarlo o dar una referencia? - En una población normal bivariada, ¿se puede estimar negativamente el estadístico Rsq de la muestra observada?
ttnphns

Creo que estas equivocado. ¿Podría dar una referencia para respaldar su reclamo?
Richard Hardy

Lo siento, pero esto fue más un ejercicio de pensamiento, así que no tengo referencia.
Dingus

Estaba saliendo del comentario A anterior, donde Fischer demostró que en una situación normal bivariada, r es un estimador de rho sesgado negativamente. Si ese es el caso, ¿no se seguiría que R sq también tiene un sesgo negativo?
Dingus

Quizás esto ayude en la conversación digitalcommons.unf.edu/cgi/…
Dingus
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.