Preguntas etiquetadas con neural-networks

Las redes neuronales artificiales (ANN) son una amplia clase de modelos computacionales basados ​​libremente en redes neuronales biológicas. Abarcan NN de avance (incluidas las NN "profundas"), NN convolucionales, NN recurrentes, etc.




1
Registro de probabilidades en referencia al clasificador softmax
En este https://cs231n.github.io/neural-networks-case-study/ ¿por qué menciona que "el clasificador Softmax interpreta que cada elemento de ff contiene las probabilidades de registro (no normalizadas) de las tres clases". Entiendo por qué no está normalizado, pero no por qué es un registro. ¿Qué significa una probabilidad logarítmica? ¿Por qué no solo decir …

1
¿Qué es la predicción densa en el aprendizaje profundo?
Estoy usando el modelo preformado de TensorFlow de la red neuronal convolucional. https://github.com/tensorflow/models/blob/master/slim/nets/resnet_v2.py#L130 Encontré la siguiente oración: Sin embargo, para tareas de predicción densas, recomendamos que se utilicen entradas con dimensiones espaciales que sean múltiplos de 32 más 1, por ejemplo, [321, 321]. ¿Alguien sabe cuál es la predicción densa …


3
Los datos de entrenamiento están desequilibrados, pero ¿también debería estar mi conjunto de validación?
He etiquetado los datos compuestos por 10000 ejemplos positivos y 50000 ejemplos negativos, dando un total de 60000 ejemplos. Obviamente estos datos están desequilibrados. Ahora digamos que quiero crear mi conjunto de validación, y quiero usar el 10% de mis datos para hacerlo. Mi pregunta es la siguiente: ¿Debo asegurarme …

3
¿Cómo se entrena el generador en una GAN?
El documento sobre GAN dice que el discriminador usa el siguiente gradiente para entrenar: ∇θre1metro∑i = 1metro[ logD (X( i )) +log( 1 - D ( G (z( i )) ) ) ]∇θre1metro∑yo=1metro[Iniciar sesión⁡re(X(yo))+Iniciar sesión⁡(1-re(sol(z(yo))))]\nabla _{\theta_d} \frac{1}{m}\sum^{m}_{i=1} [\log{D(x^{(i)})} + \log{(1-D(G(z^{(i)})))}] Los valores se muestrean, se pasan a través del generador …

1
¿Son suficientes la detención temprana y el abandono escolar para regularizar la gran mayoría de las redes neuronales profundas en la práctica?
Hay tantas técnicas de regularización que no es práctico probar todas las combinaciones: l1 / l2 norma máxima abandonar parada temprana ... Parece que la mayoría de las personas están contentas con una combinación de abandono escolar y parada temprana: ¿hay casos en los que tenga sentido usar otras técnicas? …





2
Vectorización de la pérdida de entropía cruzada
Estoy tratando con un problema relacionado con encontrar el gradiente de la función de pérdida de entropía cruzada wrt el parámetro donde:θθ\theta CE(θ)=−∑iyi∗log(y^i)CE(θ)=−∑iyi∗log(y^i)CE(\theta) = -\sum\nolimits_{i}{y_i*log({\hat{y}_{i}})} Donde, y es una entrada vectorial.y^i=softmax(θi)y^i=softmax(θi)\hat{y}_{i} = softmax(\theta_i)θiθi\theta_i Además, es un vector caliente de la clase correcta y es la predicción para cada clase que …


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.