Estoy leyendo sobre técnicas de computación de yacimientos como Echo State Networks y Liquid State Machines . Ambos métodos implican alimentar las entradas a una población de neuronas que se conectan aleatoriamente (o no), y un algoritmo de lectura relativamente simple que produce la salida (por ejemplo, regresión lineal). Los pesos de la población de neuronas son fijos o entrenados a través de una regla de actividad local similar a Hebbian como STDP .
Estas técnicas funcionan bien al modelar entradas multidimensionales que tienen componentes temporales significativos. Sin embargo, calcular los potenciales de membrana de la neurona aumentada implica la integración de ecuaciones diferenciales y puede ser computacionalmente costoso.
¿Hay ejemplos de dónde la complejidad computacional adicional de las técnicas de computación de yacimientos se ve compensada por las ganancias en una tarea de predicción o clasificación?
Por ejemplo, ¿hay algún caso de que las técnicas de SNN superen a arquitecturas comparativamente complejas basadas en RNN, ANN, SVM, DNN, CNN u otros algoritmos?