Encontrar las diferencias se puede hacer mirando los modelos. Veamos primero la codificación dispersa.
Codificación escasa
La codificación dispersa minimiza el objetivo
donde W es una matriz de bases, H es una matriz de códigos y X es una matriz de los datos que deseamos representar. λ implementa un intercambio entre escasez y reconstrucción. Tenga en cuenta que si se nos da H , la estimación de W es fácil a través de mínimos cuadrados.
LCarolina del Sur= | El | WH- XEl | El |22plazo de reconstrucción+ λ | El | HEl | El |1término de escasez
WXλHW
Al principio, sin embargo, no tenemos Sin embargo, existen muchos algoritmos que pueden resolver el objetivo anteriormente con respecto a H . En realidad, así es como hacemos la inferencia: necesitamos resolver un problema de optimización si queremos saber qué h pertenece a una x invisible .HHhX
Codificadores automáticos
Los codificadores automáticos son una familia de redes neuronales no supervisadas. Hay muchos de ellos, por ejemplo, codificadores automáticos profundos o aquellos que tienen diferentes trucos de regularización adjuntos, por ejemplo, eliminación de ruido, contracción, escasa. Incluso existen las probabilísticas, como las redes estocásticas generativas o el codificador automático variacional. Su forma más abstracta es
pero por ahora vamos a seguir con una mucho más simple:
L ae = | El | W σ ( W T X )
D ( d( e ( x ; θr) ; θre) , x )
donde
σ es una función no lineal como el sigmoide logístico
σ ( x ) = 1Lae= | El | Wσ( WTX) - XEl | El |2
σ .
σ( x ) = 11 + exp( - x )
Similitudes
Tenga en cuenta que parece casi a L a e una vez que establecemos H = σ ( W T X ) . La diferencia de ambos es que i) los codificadores automáticos no fomentan la dispersión en su forma general ii) un codificador automático utiliza un modelo para encontrar los códigos, mientras que la codificación dispersa lo hace mediante la optimización.Ls cLa eH= σ( WTX)
WWLs c
Además, los diferentes métodos de regularización producen representaciones con características diferentes. También se ha demostrado que los codificadores automáticos de denoising son equivalentes a una determinada forma de RBM, etc.
¿Pero por qué?
Si desea resolver un problema de predicción, no necesitará codificadores automáticos a menos que tenga pocos datos etiquetados y muchos datos sin etiquetar. Entonces, generalmente será mejor entrenar un codificador automático profundo y colocar un SVM lineal en la parte superior en lugar de entrenar una red neuronal profunda.
Sin embargo, son modelos muy poderosos para capturar la característica de las distribuciones. Esto es vago, pero actualmente se está llevando a cabo una investigación que convierte esto en hechos estadísticos estrictos. Los modelos gaussianos latentes profundos, también conocidos como codificadores automáticos variacionales o redes estocásticas generativas, son formas bastante interesantes de obtener codificadores automáticos que estiman de manera demostrable la distribución de datos subyacente.