Esta respuesta consiste en una sección introductoria que escribí recientemente para un artículo que describe una extensión espacio-temporal (modesta) de "Universal Kriging" (Reino Unido), que es una generalización modesta de "Kriging ordinario". Tiene tres subsecciones: la teoría proporciona un modelo estadístico y supuestos; Estimación revisa brevemente la estimación de parámetros de mínimos cuadrados; y Prediction muestra cómo kriging encaja en el marco de Mínimos cuadrados generalizados (GLS). Me he esforzado por adoptar una notación familiar para los estadísticos, especialmente los visitantes de este sitio, y para usar conceptos bien explicados aquí.
Para resumir, kriging es la mejor predicción imparcial lineal (BLUP) de un campo aleatorio. Lo que esto significa es que el valor predicho en cualquier ubicación no muestreada se obtiene como una combinación lineal de los valores y covariables observados en las ubicaciones muestreadas. El valor (desconocido, aleatorio) tiene una correlación asumida con los valores de la muestra (y los valores de la muestra están correlacionados entre sí). Esta información de correlación se traduce fácilmente en la varianza de la predicción. Uno elige los coeficientes en la combinación lineal (los "pesos de kriging") que hacen que esta varianza sea lo más pequeña posible, sujeta a una condición de sesgo cero en la predicción. Los detalles siguen.
Teoría
El Reino Unido comprende dos procedimientos, uno de estimación y otro de predicción, llevados a cabo en el contexto de un modelo GLS para un área de estudio. Los supone modelo GLS que los datos de muestra son el resultado de desviaciones aleatorias alrededor de una tendencia y que esas desviaciones están correlacionados. Se entiende por tendencia en el sentido general de un valor que puede determinarse mediante una combinación lineal de p coeficientes desconocidos (parámetros) β = ( β 1 , β 2 , ... , βzyo, ( I = 1 , 2 , . . . , N ) pag . (A lo largo de esta publicación, el primer ' denota la transposición de la matriz y todos los vectores se consideran vectores de columna).β= ( β1, β2, ... , βpag)′′
En cualquier lugar dentro de un área de estudio hay disponible una tupla de atributos numéricos denominados "variables independientes" o "covariables". (Por lo general, y 1 = 1 es un "término constante", y 2 e y 3 pueden ser coordenadas espaciales, y el y i adicionaly =( y1, y2, ... , ypag)′y1= 1y2y3yyopuede representar información espacial, así como otra información auxiliar que esté disponible en todas las ubicaciones en el área de estudio, como la porosidad de un acuífero o la distancia a un pozo de bombeo.) En cada ubicación de datos , además de sus covariables y i = ( y i 1 , y i 2 , ... , y i p ) ′ , la observación asociada z i se considera la realización de una variable aleatoria Z i . En contraste, el y iyoyyo= ( yyo 1, yyo 2, ... , yyo p)′zyoZyoyyose consideran valores determinados por o que caracterizan los puntos o pequeñas regiones representadas por las observaciones (los datos "apoyan"). Los no se consideran realizaciones de variables aleatorias y se requiere que no estén relacionados con las propiedades de ninguno de los Z i .yyoZyo
La combinación lineal
expresa el valor esperado de Z i en términos de los parámetros β , que es el valor de la tendencia en el lugar i . El proceso de estimación utiliza los datos para encontrar los valores de beta i que representan los parámetros desconocidos beta i
E [ Zyo] = y′yoβ= yyo 1β1+ yyo 2β2+ ⋯ + yyo pβpag
Zyoβyoβ^yoβyo, mientras que el proceso de predicción utiliza los datos en las ubicaciones
para calcular un valor en una ubicación no muestreada, que aquí se indexa como
i = 0 . Los objetivos de estimación son parámetros fijos (
es decir , no aleatorios), mientras que el objetivo de predicción es aleatorio, porque el valor
z 0 incluye una fluctuación aleatoria alrededor de su tendencia
y ′ 0 β . Por lo general, las predicciones se realizan para múltiples ubicaciones utilizando los mismos datos variando la ubicación
0i = 1 , 2 , ... , ni = 0z0 0y′0 0β0 0. Por ejemplo, a menudo se hacen predicciones para trazar una superficie a lo largo de una cuadrícula regular de puntos adecuados para contornear.
Estimacion
El kriging clásico asume las fluctuaciones aleatorias tiene valores esperados de cero y se conocen sus covarianzas. Escribe la covarianza entre Z i y Z j como c i j . Usando esta covarianza, la estimación se realiza usando GLS. Su solución es la
siguiente: β = H z , H = ( Y ' C - 1 Y ) - 1 Y ' C - 1
donde z = ( z 1ZyoZyoZjCyo j
β^= H z , H = ( Y ′C- 1Y )- 1Y′C- 1
es elvector
n de las observaciones,
Y = ( y i j ) (la "matriz de diseño") es lamatriz
n por
p cuyas filas son los vectores
y ′ i , 1 ≤ i ≤ n , y
C = ( c i j ) es lamatriz de covarianza
n- by-
n que se supone que es invertible (Draper y Smith (1981), sección 2.11). los
z =( z1, z2, ... , znorte)norteY =( yyo j)nortepagy′yo, 1 ≤ i ≤ nC =( cyo j)nortenorte por
n matriz
H , que proyecta los datos
z en el parámetro estimaciones
beta , se llama la “matriz sombrero.” La formulación de
β como la aplicación de la matriz de sombrero a los datos explícitamente muestra cómo las estimaciones de los parámetros dependen linealmente de los datos. Las covarianzas
C = ( c i j ) se calculan clásicamente utilizando un variograma que proporciona la covarianza en términos de las ubicaciones de los datos, aunque no es importante cómo se calcula realmente la covarianza.
pagnorteHzβ^β^C =( cyo j)
Predicción
UK predice de manera similar por medio de una combinación lineal de los datos
z 0 = λ 1 z 1 + λ 2 z 2 + ⋯ + λ n z n = λ ' z .
Los λ i se denominan "pesos de kriging" para la predicción de z 0 . El Reino Unido cumple esta predicción de z 0 al cumplir dos criterios. Primero, la predicción debe ser imparcial, lo que se expresa al requerir que la combinación lineal de las variables aleatoriasz0 0
z^0 0= λ1z1+ λ2z2+ ⋯ + λnorteznorte= λ′z .
λyoz0 0z0 0 es igual a
Z 0 en promedio:
0 = E [ Z 0 - Z 0 ] = E [ λ ' Z - Z 0 ] .
Esta expectativa se toma sobre ladistribuciónconjunta
n + 1 -variable de
Z 0 y
Z = ( Z 1 , Z 2 , ... , Z n )ZyoZ0 00 = E [ Z^0 0- Z0 0] = E [ λ′Z - Z0 0] .
n + 1Z0 0Z =( Z1, Z2, ... , Znorte). La linealidad de la expectativa junto con el supuesto de tendencia (1) implica:
0 0= E [ λ′Z - Z0 0] = λ′E [ Z ]- E [ Z0 0] = λ′( Y β) - y′0 0β= ( λ′Y - y′0 0) β= β′( Y′λ - y0 0)
no importa lo que sea . Este será el caso siempre queβ
Y^′λ = y0 0.
λZ^0 0- Z0 0
V a r ( Z^0 0- Z0 0) = E [ ( Z^0 0- Z0 0)2] = E [ ( λ′Z - Z0 0)2] = c00- 2 λ′C0 0+ λ′C λ
C0 0= ( c01, c02, ... , c0 n)′Z0 0Zyo, yo ≥ 1C00Z0 0
λpagμY^′λ = y0 0n + p
( CY′Y0 0) ( λμ) = ( c0 0y0 0)
0 0pagpag1nortenorteλλ = H′y0 0+ C- 1( 1 - Y H ) c0 0.
(Los lectores familiarizados con la regresión múltiple pueden encontrar instructivo comparar esta solución con la solución basada en covarianza de las ecuaciones normales de mínimos cuadrados ordinarios , que se ve casi exactamente igual, pero sin términos multiplicadores de Lagrange).
λ[ H′y0 0]Z0 0z^0 0