Fondo de introducción
Dentro de una red neuronal convolucional, generalmente tenemos una estructura / flujo general que se ve así:
- imagen de entrada (es decir, un vector 2D
x
)
(La primera capa convolucional (Conv1) comienza aquí ...)
- Convolucionar un conjunto de filtros (
w1
) a lo largo de la imagen 2D (es decir, hacer lasz1 = w1*x + b1
multiplicaciones del producto de puntos), dondez1
es 3D yb1
es sesgo. - aplicar una función de activación (por ejemplo, ReLu) para hacer
z1
no lineal (por ejemploa1 = ReLu(z1)
), dondea1
es 3D.
(La segunda capa convolucional (Conv2) comienza aquí ...)
- Convolucionar un conjunto de filtros a lo largo de las activaciones recién calculadas (es decir, hacer las
z2 = w2*a1 + b2
multiplicaciones del producto de puntos), dondez2
es 3D yb2
sesgos. - aplicar una función de activación (por ejemplo, ReLu) para hacer
z2
no lineal (por ejemploa2 = ReLu(z2)
), dondea2
es 3D.
La pregunta
La definición del término "mapa de características" parece variar de una literatura a otra. Concretamente:
- Para la capa de convolución primero, hace "mapa de características" corresponde al vector de entrada
x
, o el producto punto de salidaz1
, o las activaciones de salidaa1
, o el "proceso" convertirx
aa1
, o algo más? - Del mismo modo, para la capa de convolucional segunda, hace "mapa de características" corresponde a las activaciones de entrada
a1
, o el producto de punto de salidaz2
, o la activación de la salidaa2
, o el "proceso" conversióna1
aa2
, o algo más?
Además, ¿es cierto que el término "mapa de características" es exactamente el mismo que "mapa de activación"? (¿o realmente significan dos cosas diferentes?)
Referencias adicionales:
Fragmentos de redes neuronales y aprendizaje profundo - Capítulo 6 :
* La nomenclatura se está utilizando libremente aquí. En particular, estoy usando "mapa de características" para significar no la función calculada por la capa convolucional, sino más bien la activación de las neuronas ocultas que salen de la capa. Este tipo de abuso leve de la nomenclatura es bastante común en la literatura de investigación.
Fragmentos de visualización y comprensión de redes convolucionales por Matt Zeiler :
En este artículo presentamos una técnica de visualización que revela los estímulos de entrada que excitan los mapas de características individuales en cualquier capa del modelo. [...] Nuestro enfoque, por el contrario, proporciona una vista no paramétrica de la invariancia, que muestra qué patrones del conjunto de entrenamiento activan el mapa de características. [...] una operación de contraste local que normaliza las respuestas en los mapas de características. [...] Para examinar una activación de convnet dada, establecemos todas las demás activaciones en la capa a cero y pasamos los mapas de características como entrada a la capa deconvnet adjunta. [...] El convnet utiliza no linealidades relu, que rectifican los mapas de características asegurando así que los mapas de características sean siempre positivos. [...] El convnet utiliza filtros aprendidos para convolucionar los mapas de características de la capa anterior. [...] Fig. 6, estas visualizaciones son representaciones precisas del patrón de entrada que estimula el mapa de características dado en el modelo [...] cuando las partes de la imagen de entrada original correspondiente al patrón están ocluidas, vemos una clara caída en la actividad dentro del mapa de características. [...]
Observaciones: también introduce el término "mapa de características" y "mapa de características rectificado" en la figura 1.
Fragmentos del capítulo de Stanford CS231n en CNN :
[...] Una trampa peligrosa que se puede notar fácilmente con esta visualización es que algunos mapas de activación pueden ser cero para muchas entradas diferentes, lo que puede indicar filtros muertos y puede ser un síntoma de altas tasas de aprendizaje [...] Activaciones de aspecto típico en la primera capa CONV (izquierda) y la quinta capa CONV (derecha) de un AlexNet entrenado mirando una imagen de un gato. Cada cuadro muestra un mapa de activación correspondiente a algún filtro. Observe que las activaciones son escasas (la mayoría de los valores son cero, en esta visualización se muestra en negro) y principalmente locales.
Fragmentos de A-Beginner's-Guide-To-Understanding-Convolutional-Neural-Networks
[...] Cada ubicación única en el volumen de entrada produce un número. Después de deslizar el filtro sobre todas las ubicaciones, descubrirá que lo que le queda es una matriz de números de 28 x 28 x 1, que llamamos un mapa de activación o mapa de características.
a1
,a2
etc.). En Conv2, supongo que llamaríaa1
al mapa de activación de entrada ya2
al mapa de activación de salida. En Conv1, veox
la imagen de entrada ya1
el mapa de activación de salida.