Entonces, al mirar las redes neuronales de la función de base radial, me di cuenta de que las personas solo recomiendan el uso de 1 capa oculta, mientras que con las redes neuronales de perceptrón multicapa, más capas se consideran mejores.
Dado que las redes RBF se pueden entrenar con la versión de propagación inversa, ¿hay alguna razón por la cual las redes RBF más profundas no funcionarían, o que una capa RBF no se pudiera usar como penúltima o primera capa en una red MLP profunda? (Estaba pensando en la penúltima capa, por lo que esencialmente podría ser entrenado en las características aprendidas por las capas MLP anteriores)