Las muestras de ruido coloreado (tomadas en diferentes momentos) generalmente
son variables aleatorias correlacionadas porque la función de autocorrelación del proceso de ruido no es una función delta como lo es en el caso del ruido blanco. Por lo tanto, si suponemos un proceso de media cero (generalmente se supone que el ruido es independiente de su color), entonces la covarianza de dos señales separadas en el tiempo porτ segundos es
R ( τ) dónde R ( t ) =F- 1( S( f)es la función de autocorrelación del proceso (transformación inversa de Fourier de la densidad espectral de potencia). Tenga en cuenta que es posible paraR ( t )ser cero para algunos valores det (p.ej R ( t ) = sinc( t )es una función de auto-correlación válida), pero no puede ser cero para todo distinto de cerot.
En cuanto a la función de densidad de cualquier muestra, si el proceso es gaussiano, la muestra es gaussiana incluso si el proceso se ha filtrado con un filtro lineal antes del muestreo. Pero si el proceso no es
gaussiano (es, digamos, LaPlacian), entonces, si bien cada muestra será LaPlacian, generalmente no se puede decir lo mismo de las muestras del proceso después del filtrado de ningún tipo. En otras palabras, Gaussianity sobrevive al filtrado lineal, el LaPlacism generalmente no.
Entonces, ¿cómo funciona la estimación de máxima verosimilitud cuando las muestras tienen ruido correlacionado? Considere el caso cuando deseamos estimar la media desconocida de unnorte( μ , 1 ) variable aleatoria, y tenemos dos observaciones X y y. En el caso estándar de observaciones independientes, la función de probabilidad es
L ( μ ) =12 πExp( -12[ ( x - μ)2+ ( y- μ)2] ) .
El estimador de máxima verosimilitud para
μ es el numero
μ^
que maximiza
L ( μ ), que resulta ser el número
μ^
que
minimiza ( x - μ)2+ ( y- μ)2. Esta es una
cuadrática en
μ
y la estimación de máxima verosimilitud resulta ser
μ^=x + y2. Cuando las observaciones están correlacionadas con el coeficiente de correlación
ρ, entonces
L ( μ ) =12 π1 -ρ2-----√Exp( -121 -ρ2-----√[ ( x - μ)2- 2 ρ ( x - μ ) ( y- μ ) + ( y- μ)2] ) .
Una vez más necesitamos encontrar el
μ^ dónde
( x - μ)2- 2 ρ ( x - μ ) ( y- μ ) + ( y- μ)2Tiene un mínimo. Todavía tenemos un
cuadrático en
μ pero ahora tenemos términos como
x yen los coeficientes Qué
μ^ funciona para ser dejado para que usted trabaje.
¿Y si tenemos n observaciones donde n>2? Todo lo anterior aún se aplica. Para ruido gaussiano distribuido idénticamente independiente en las muestras, la media muestral
n−1∑ixi es la estimación de máxima verosimilitud de μ pero en el caso de variables aleatorias gaussianas correlacionadas, tenemos problemas de minimización muy desordenados porque la cuadrática que estamos tratando de minimizar depende de la inversa de la matriz de covarianza y el resultado es una función no lineal de los datos en lugar de una simple y fácil de recuerde el resultado como la media de la muestra.
¿Qué pasa si el ruido no es gaussiano? Se aplican los mismos principios: configure la función de probabilidad y encuentre dónde alcanza su valor máximo, pero los cálculos son bastante diferentes, todo lo que depende de lo que asume o sabe es la densidad conjunta de las observaciones.