¿La comunidad de aprendizaje automático está abusando de "condicionado" y "parametrizado por"?


13

Digamos que depende de α . Hablando rigurosamenteXα

  • si y α son variables aleatorias, podríamos escribir p ( X α ) ;Xαp(Xα)

  • sin embargo, si es una variable aleatoria y α es un parámetro, tenemos que escribir p ( X ; α ) .Xαp(X;α)

Noté varias veces que la comunidad de aprendizaje automático parece ignorar las diferencias y abusar de los términos.

Por ejemplo, en el famoso modelo LDA, donde es el parámetro Dirichlet en lugar de una variable aleatoria.α

ingrese la descripción de la imagen aquí

¿No debería ser ? Veo que muchas personas, incluidos los autores originales del artículo de LDA, lo escriben como p ( θ α ) .p(θ;α)p(θα)


66
Hablando matemáticamente, siempre puedes condicionar una constante, ya que este es un caso limitante de variable aleatoria. Desde un punto de vista bayesiano, todas las incógnitas se tratan como variables aleatorias, por lo que tiene sentido utilizar la notación de condicionamiento por todas partes.
Xi'an

1
XθXCat(θ)p(Xθ)θp(X;θ)

44
p(Xθ)

Respuestas:


14

Creo que esto se trata más de estadísticas bayesianas / no bayesianas que de aprendizaje automático vs .. estadísticas.

X,αp(Xα)Xαααp(X;α)p(Xα)p(α)ααα

p(X;α)p(Xα)p

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.