Portanto, ao analisar as Redes Neurais com funções de base radial, notei que as pessoas só recomendam o uso de 1 camada oculta, enquanto nas redes neurais perceptron de múltiplas camadas, mais camadas são consideradas melhores.
Dado que as redes RBF podem ser treinadas com a versão de propagação reversa, existem razões pelas quais redes RBF mais profundas não funcionariam ou que uma camada RBF não poderia ser usada como penúltima ou primeira camada em uma rede MLP profunda? (Eu estava pensando na penúltima camada para que pudesse ser essencialmente treinada nos recursos aprendidos pelas camadas MLP anteriores)