En el teorema bayesiano, , y del libro que estoy leyendo,p(x|y)se llamaprobabilidad, pero supongo que es solo laprobabilidad condicionaldexdadoy, ¿verdad?
La estimación de máxima verosimilitud intenta maximizar , ¿verdad? Si es así, estoy muy confundido, porque x , y son variables aleatorias, ¿verdad? Para maximizar p ( x | y ) es sólo para descubrir la Y ? Un problema más, si estas 2 variables aleatorias son independientes, entonces p ( x | y ) es solo p ( x ) , ¿verdad? Entonces maximizando p ( x | y es maximizar p ( x ) .
O tal vez, es una función de algunos parámetros θ , es decir p ( x | y ; θ ) , y MLE intenta encontrar el θ que puede maximizar p ( x | y ) . O incluso que Y es, en realidad los parámetros del modelo, no variable aleatoria, lo que maximiza la probabilidad es encontrar la Y ?
ACTUALIZAR
Soy un novato en el aprendizaje automático, y este problema es una confusión de lo que leí en un tutorial de aprendizaje automático. Aquí es, dado un conjunto de datos observado , los valores objetivo son { y 1 , y 2 , . . . , y n } , y trato de ajustar un modelo sobre este conjunto de datos, por lo que supongo que, dado x , y tiene una forma de distribución llamada W parametrizada por θ , es decir , y supongo que esta es laprobabilidad posterior, ¿verdad?
Ahora para estimar el valor de , uso MLE. OK, aquí viene mi problema, creo que la probabilidad es p ( x | y ; θ ) , ¿verdad? ¿Maximizar la probabilidad significa que debería elegir el correcto θ y y ?
Si mi comprensión de la probabilidad es incorrecta, muéstrame el camino correcto.