Recientemente leí el comentario de Yan LeCuns sobre convoluciones 1x1 :
En las redes convolucionales, no existen las "capas completamente conectadas". Solo hay capas de convolución con núcleos de convolución 1x1 y una tabla de conexión completa.
Es un hecho que rara vez se entiende que ConvNets no necesita tener una entrada de tamaño fijo. Puede entrenarlos en entradas que producen un solo vector de salida (sin extensión espacial) y luego aplicarlos a imágenes más grandes. En lugar de un solo vector de salida, obtienes un mapa espacial de vectores de salida. Cada vector ve ventanas de entrada en diferentes ubicaciones en la entrada. En ese escenario, las "capas completamente conectadas" realmente actúan como convoluciones 1x1.
Me gustaría ver un ejemplo simple para esto.
Ejemplo
Suponga que tiene una red totalmente conectada. Tiene solo una capa de entrada y una capa de salida. La capa de entrada tiene 3 nodos, la capa de salida tiene 2 nodos. Esta red tiene parámetros. Para hacerlo aún más concreto, supongamos que tiene una función de activación ReLU en la capa de salida y la matriz de peso
Entonces la red es con .
¿Cómo debería verse la capa convolucional para ser la misma? ¿Qué quiere decir LeCun con "tabla de conexión completa"?
Supongo que para obtener una CNN equivalente, tendría que tener exactamente el mismo número de parámetros. El MLP de arriba tiene parámetros.