KKij=k(xi,xj)=b-1exp(-1
La derivada parcial de los parámetros wrt de probabilidad marginal logarítmica está dada por los siguientes
Como las entradas de dependen de los parámetros, también lo hacen los derivados y inversa de . Esto significa que, cuando se emplea un optimizador basado en gradiente, la evaluación del gradiente en un punto dado (valor del parámetro) requerirá un nuevo cálculo de la matriz de covarianza. En mi aplicación, esto no es factible porque calcular la matriz de covarianza desde cero y calcular su inverso en cada iteración del ascenso de gradiente es demasiado costoso. Mi pregunta es ¿cuáles son mis opciones para encontrar una combinación bastante buena de estos tres parámetros? y tampoco sé qué parámetro optimizar primero y agradecería cualquier puntero sobre este tema también.K