Preguntas etiquetadas con softmax

Función exponencial normalizadora que transforma un vector numérico de manera que todas sus entradas se vuelven entre 0 y 1 y juntas suman 1. A menudo se utiliza como la capa final de una red neuronal que realiza una tarea de clasificación.

1
Registro de probabilidades en referencia al clasificador softmax
En este https://cs231n.github.io/neural-networks-case-study/ ¿por qué menciona que "el clasificador Softmax interpreta que cada elemento de ff contiene las probabilidades de registro (no normalizadas) de las tres clases". Entiendo por qué no está normalizado, pero no por qué es un registro. ¿Qué significa una probabilidad logarítmica? ¿Por qué no solo decir …

1
¿Qué es el gradiente-log-normalizador?
En la wiki, la función softmax se define como el gradiente-log-normalizador de la distribución de probabilidad categórica . Aquí se encuentra una explicación parcial del log-normalizador , pero ¿qué significa gradiente-log-normalizador ?
9 softmax 

1
Definición de la función softmax
Esta pregunta sigue en stats.stackexchange.com/q/233658 El modelo de regresión logística para las clases {0, 1} es P(y=1|x)=exp(wTx)1+exp(wTx)P(y=0|x)=11+exp(wTx)P(y=1|x)=exp⁡(wTx)1+exp⁡(wTx)P(y=0|x)=11+exp⁡(wTx) \mathbb{P} (y = 1 \;|\; x) = \frac{\exp(w^T x)}{1 + \exp(w^T x)} \\ \mathbb{P} (y = 0 \;|\; x) = \frac{1}{1 + \exp(w^T x)} Claramente, esas probabilidades suman 1. Al establecer también podríamos …

2
¿Cómo se deriva la unidad softmax y cuál es la implicación?
Estoy tratando de entender por qué la función softmax se define como tal: mizjΣKk = 1mizk= σ(z)ezjΣk=1Kezk=σ(z)\frac{e^{z_{j}}} {\Sigma^{K}_{k=1}{e^{z_{k}}}} = \sigma(z) Entiendo cómo esto normaliza los datos y se asigna correctamente a algún rango (0, 1), pero la diferencia entre las probabilidades de peso varía exponencialmente en lugar de linealmente. ¿Hay …
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.