Por lo que puedo decir, las redes neuronales tienen un número fijo de neuronas en la capa de entrada.
Si las redes neuronales se usan en un contexto como PNL, las oraciones o bloques de texto de diferentes tamaños se alimentan a una red. ¿Cómo se concilia el tamaño de entrada variable con el tamaño fijo de la capa de entrada de la red? En otras palabras, ¿cómo se hace que dicha red sea lo suficientemente flexible como para manejar una entrada que puede ser desde una palabra hasta varias páginas de texto?
Si mi suposición de un número fijo de neuronas de entrada es incorrecta y se agregan / eliminan nuevas neuronas de entrada de la red para que coincidan con el tamaño de entrada, no veo cómo se pueden entrenar.
Doy el ejemplo de PNL, pero muchos problemas tienen un tamaño de entrada inherentemente impredecible. Estoy interesado en el enfoque general para lidiar con esto.
Para las imágenes, está claro que puede subir / bajar la muestra a un tamaño fijo, pero, para el texto, esto parece ser un enfoque imposible ya que agregar / eliminar texto cambia el significado de la entrada original.