Ich habe einen Punkt verwirrend. Hier ist der Beispielcode:Was ist der Unterschied zwischen var.op.name und var.name im Tensorflow?
opt = tf.train.GradientDescentOptimizer(1e-4)
grads_and_vars = opt.compute_gradients(total_loss)
for grad, var in grads_and_vars:
print(var.op.name)
der Ausgang ist: conv1/filt conv1/bias
und wenn ich var.op.name
in var.name
ändern die Ausgabe lautet: conv1/filt:0 conv1/bias:0
Was ist der Unterschied zwischen var.op.name
und var.name
? und was bedeutet :0
?