En Bishop's Pattern Recognition and Machine Learning leí lo siguiente, justo después de que se introdujera la densidad de probabilidad :
Bajo un cambio no lineal de variable, una densidad de probabilidad se transforma de manera diferente a una función simple, debido al factor jacobiano. Por ejemplo, si consideramos un cambio de variables , entonces una función convierte en . Ahora considere una densidad de probabilidad que corresponde a una densidad con respecto a la nueva variable , donde los denotan el hecho de que y son densidades diferentes. Las observaciones que caen en el rango , para valores pequeños de , se transformarán en el rango ) donde , y por lo tanto p_y (y) = p_x (x) | \ frac {dx} {dy} | = p_x (g (y)) | g \ prime (y) | .
¿Cuál es el factor jacobiano y qué significa exactamente todo (tal vez cualitativamente)? Bishop dice que una consecuencia de esta propiedad es que el concepto del máximo de una densidad de probabilidad depende de la elección de la variable. ¿Qué significa esto?
Para mí, todo esto surge de la nada (considerando que está en el capítulo de introducción). Agradecería algunos consejos, gracias!