Estoy luchando por hacer la conexión matemática entre una red neuronal y un modelo gráfico.
En los modelos gráficos, la idea es simple: la distribución de probabilidad se factoriza de acuerdo con las camarillas en el gráfico, y los potenciales generalmente son de la familia exponencial.
¿Existe un razonamiento equivalente para una red neuronal? ¿Se puede expresar la distribución de probabilidad sobre las unidades (variables) en una máquina de Boltzmann restringida o una CNN en función de su energía, o el producto de las energías entre unidades?
Además, ¿la distribución de probabilidad está modelada por una RBM o una red de creencias profundas (por ejemplo, con CNN) de la familia exponencial?
Espero encontrar un texto que formalice la conexión entre estos tipos modernos de redes neuronales y estadísticas de la misma manera que lo hicieron Jordan & Wainwright para los modelos gráficos con sus Modelos Gráficos, Familias Exponenciales e Inferencia Variacional . Cualquier punto sería genial.
"using deep nets as factors in an MRF"
), sino más sobre cómo mirar una red profunda como un gráfico de factor probabilístico. Cuando Yann LeCun dice "of course deep Boltzmann Machines are a form of probabilistic factor graph themselves"
, estoy interesado en ver esa conexión matemáticamente.
https://distill.pub/2017/feature-visualization/
( cómo las redes neuronales desarrollan su comprensión de las imágenes ), en el sentido de que una imagen compleja tiene objetos componentes representados por nodos de capa oculta. Los pesos pueden 'alterar' la 'topología' de manera no discreta. Aunque no lo he visto, algunos métodos podrían incluir factores de contracción para eliminar bordes y, por lo tanto, cambiar la topología original