¿Cuál es la lógica detrás del método de los momentos?


20

¿Por qué en "Método de momentos", equiparamos los momentos de muestra con los momentos de población para encontrar el estimador puntual?

¿Dónde está la lógica detrás de esto?


2
Sería bueno si tuviéramos un físico en nuestra comunidad para abordar esto.
mugen

44
@mugen, no veo relación alguna con la física.
Aksakal

2
@Aksakal también usan momentos de funciones en física, y siempre es bueno cuando alguien hace un paralelo para una mejor interpretación.
mugen

1
Como se menciona en esta respuesta , la ley de los grandes números proporciona una justificación (aunque asintótica) para estimar un momento población por un momento en la muestra, lo que resulta en (a menudo), simples estimadores consistentes
Glen_b -Reinstate Monica

¿No es toda la idea representar los parámetros usando momentos? Al igual que si intenta estimar el parámetro de distribución de Poisson, al encontrar la media (primer momento) puede usarlo como un estimador para su parámetro lambda.
denis631

Respuestas:


14

Una muestra que consta de n realizaciones de variables aleatorias distribuidas de forma idéntica e independiente es ergódica. En tal caso, los "momentos muestrales" son estimadores consistentes de los momentos teóricos de la distribución común, si los momentos teóricos existen y son finitos.

Esto significa que

(1)μ^k(n)=μk(θ)+ek(n),ek(n)p0

Entonces, al equiparar el momento teórico con el momento de muestra correspondiente tenemos

μ^k(n)=μk(θ)θ^(n)=μk1(μ^k(n))=μk1[μk(θ)+ek(n)]

Entonces ( no depende de n )μkn

plimθ^(n)=plim[μk1(μk(θ)+ek)]=μk1(μk(θ)+plimek(n))

=μk1(μk(θ)+0)=μk1μk(θ)=θ

Entonces lo hacemos porque obtenemos estimadores consistentes para los parámetros desconocidos.


¿Qué significa "plim"? No estoy familiarizado con "p" en ek(n)p0
usuario 31466

Límite de probabilidad @leaf
Alecos Papadopoulos

¿Qué pasaría si fuera un límite regular en lugar de un límite de probabilidad?
usuario 31466

Nos diría que el estimador se convierte en una constante, no que tiende probabilísticamente a uno. Quizás debería buscar modos de convergencia de variables aleatorias, wikipedia tiene una introducción decente, en.wikipedia.org/wiki/Convergence_of_random_variables
Alecos Papadopoulos

1
@AlecosPapadopoulos De acuerdo. ¿Me pregunto si tiene sentido poner algo simple como "... y bajo ciertas condiciones en "? μk
Jerome Baum

12

T(F)=t(x)dF(x)
F(x)F(x)=x12πσ2exp[(uμ)22σ2]du or the sample Fn(x)=1ni=1n1{xix}, so that dFn(x) is a bunch of delta-functions, and the (Lebesgue) integral with respect to dFn(x) is the sample sum 1ni=1nt(xi). If your functional T() is (weakly) differentiable, and Fn(x) converges in the appropriate sense to F(x), then it is easy to establish that the estimate is consistent, although of course more hoopla is needed to obtain say asymptotic normality.

1
No he escuchado esto llamado "principio de analogía", pero es un patrón de análisis econométrico de uso frecuente: conecte el estimador de muestra cada vez que se necesite el parámetro de población pero se desconozca.
Aksakal

@Aksakal: "conecta el estimador de muestra cada vez que se necesita el parámetro de población pero se desconoce". ¿No es este enfoque simplemente llamado estadística?
user603

@user603: No, not. There are other alternative approaches, and plu-in estimators can be bad.
kjetil b halvorsen
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.