He leído algunos documentos sobre la creación manual de imágenes para "engañar" a una red neuronal (ver más abajo).
¿Es esto porque las redes solo modelan la probabilidad condicional ?
Si una red puede modelar la probabilidad conjunta , ¿seguirán ocurriendo estos casos?
Supongo que tales imágenes generadas artificialmente son diferentes de los datos de entrenamiento, por lo que son de baja probabilidad . Por lo tanto, debería ser bajo incluso si puede ser alto para tales imágenes.
Actualizar
He probado algunos modelos generativos, resultó no ser útil, así que supongo que probablemente esto sea una consecuencia de MLE.
Quiero decir, en el caso de que la divergencia KL se use como la función de pérdida, el valor de donde es pequeño no afecta la pérdida. Entonces, para una imagen artificial que no coincide con , el valor de puede ser arbitrario.
Actualizar
Encontré un blog de Andrej Karpathy que muestra
Estos resultados no son específicos de las imágenes, ConvNets, y tampoco son un "defecto" en Deep Learning.
EXPLICANDO Y APROVECHANDO EJEMPLOS ADVERSARIOS Las redes neuronales profundas se engañan fácilmente: predicciones de alta confianza para imágenes irreconocibles