Ich möchte ein LSTM mit einem speziellen Wort Einbettung, aber ich habe einige Fragen, wie dies funktionieren würde.Tensorflow Sequenz-zu-Sequenz LSTM innerhalb LSTM (verschachtelt)
Wie Sie vielleicht wissen, arbeiten einige LSTMs auf Zeichen, also sind Zeichen in, Zeichen heraus. Ich möchte das Gleiche tun, mit einer Abstraktion über Wörter, um eine robuste Einbettung mit einem verschachtelten LSTM zu lernen, um gegen leichte Zeichenfehler zu resistent zu sein.
So ein winziges LSTM würde auf jeden Buchstaben eines Wortes entrollen, dann würde dies eine Einbettung des Wortes erstellen. Jedes eingebettete Wort in einem Satz würde dann als Eingabe einem LSTM auf höherer Ebene zugeführt werden, das zu jedem Zeitschritt auf einer Wortebene und nicht auf Zeichen arbeiten würde.
Fragen: - ich kann nicht mehr die wissenschaftliche Arbeit finden, die darüber gesprochen. Wenn Sie wissen, wovon ich rede, würde ich gerne einen Namen dafür machen, was ich tun möchte. - Gibt es dafür bereits einen TensorFlow Open-Source-Code? - Sonst, haben Sie eine Idee, wie Sie das umsetzen? Die Ausgabe des neuronalen Netzwerks ist möglicherweise schwieriger zu handhaben, da wir die Worteinbettung für das Training von Zeichen mit einer Ausgabe verschachtelten LSTM rückgängig machen müssten. Das Ganze sollte einmal als eine Einheit trainiert werden (Workflow: LSTM-Zeichen, LSTM-Zeichen, LSTM-Zeichen).
Ich denke, dass rnn_cell.MultiRNNCell
LSTMs auf aufeinander stapeln würde, anstatt sie zu nisten.
Else würde Ihnen empfehlen, die Einbettungen Ausbildung (in und out) als Autoencoder außerhalb des Haupt LSTM?