Im tensorflow multi-gpu CIFAR 10 example für jede GPU berechnen sie den Verlust (Linien 174-180)Multi-GPU CIFAR10 Beispiel in tensorflow: aggregiert Verlust
for i in xrange(FLAGS.num_gpus):
with tf.device('/gpu:%d' % i):
with tf.name_scope('%s_%d' % (cifar10.TOWER_NAME, i)) as scope:
loss = tower_loss(scope)
Wenn ein paar Zeilen unter (Leitung 246), bewerten sie loss
mit
_, loss_value = sess.run([train_op, loss])
welcher Verlust wird genau berechnet?
Ich schaute auf die tower_loss
Funktion, aber ich sehe keine inkrementelle Aggregation über alle GPUs (Türme).
Ich verstehe, dass der gesamte Graph ausgeführt wird (über alle GPUs), aber welcher Wert des Verlustes wird zurückgegeben? Nur die loss
auf der letzten GPU? Ich sehe keine Aggregation auf der aktuellen loss
Variable.