Ich bin daran interessiert, Tensorflow Seq2seq Implementierung mit vortrainierten word2vec zu initialisieren.Initialisierung Seq2seq Einbettung mit vortrainierten word2vec
Ich habe den Code gesehen. Es scheint, dass die Einbettung initialisiert wird
with tf.variable_scope(scope or "embedding_attention_decoder"):
with tf.device("/cpu:0"):
embedding = tf.get_variable("embedding", [num_symbols, cell.input_size])
Wie kann ich dies ändern, um mit vortrainiertem word2vec zu initialisieren?
Was ist mit dem Index: model.index2word? Wie geht das an Tensorflow? – vgoklani