Prédiction des séries temporelles de Pybrain à l'aide de moustiquaires récurrentes LSTM

J'ai une question à l'esprit ce qui a trait à l'utilisation de pybrain faire de régression d'une série chronologique. J'ai l'intention d'utiliser la LSTM couche dans pybrain de former et de prévoir un temps de la série.

J'ai trouvé un exemple de code ici dans le lien ci-dessous

Demander par exemple: réseau de neurones Récurrent pour la prédiction de la valeur suivante dans une séquence

Dans l'exemple ci-dessus, le réseau est en mesure de prévoir une séquence après ses cours de formation. Mais la question est, le réseau prend dans tous les séquentielle de données par l'alimentation d'un seul coup à la couche d'entrée. Par exemple, si les données d'apprentissage a 10 fonctions de chacun, les 10 fonctionnalités seront simultanément introduits dans 10 nœuds d'entrée à la fois.

À partir de ma compréhension, ce n'est plus une prédiction de séries temporelles suis-je droit? Depuis il n'y a pas de différence en termes de temps, chaque fonctionnalité est injectée dans le réseau? Corrigez-moi si je me trompe sur ce point.

Donc, ce que je suis en train de réaliser est un réseau récurrent qui n'a qu'UN seul nœud d'entrée, et UN nœud de sortie. Le nœud d'entrée est l'endroit où toutes les séries de données seront transmises de manière séquentielle à différents pas de temps. Le réseau sera formé pour reproduire l'entrée du nœud de sortie.

Pourriez-vous s'il vous plaît suggérer ou me guider dans la construction du réseau, j'ai mentionné?
Merci beaucoup à l'avance.

source d'informationauteur dnth