Las redes neuronales a menudo se tratan como "cajas negras" debido a su compleja estructura. Esto no es ideal, ya que a menudo es beneficioso tener una comprensión intuitiva de cómo funciona internamente un modelo. ¿Cuáles son los métodos para visualizar cómo funciona una red neuronal capacitada? Alternativamente, ¿cómo podemos extraer descripciones fácilmente digeribles de la red (por ejemplo, este nodo oculto funciona principalmente con estas entradas)?
Estoy interesado principalmente en redes de alimentación de dos capas, pero también me gustaría escuchar soluciones para redes más profundas. Los datos de entrada pueden ser de naturaleza visual o no visual.