Auf der CIFAR-10-Tutorial, habe ich festgestellt, dass die Variablen in der CPU-Speicher abgelegt sind, aber es ist in cifar10-train.py
angegeben, dass es mit einer einzigen GPU trainiert wird.Variablen auf CPU, Training/Gradienten auf GPU
Ich bin ziemlich verwirrt .. sind die Layer/Aktivierungen in GPU gespeichert? Oder sind die Gradienten in der GPU gespeichert? Ansonsten würde es so aussehen, als würde das Speichern von Variablen auf der CPU die GPU überhaupt nicht nutzen - alles ist im CPU-Speicher gespeichert, so dass nur die CPU für die Vorwärts-/Rückwärts-Propagierung verwendet wird.
Wenn die GPU für f/b-Propagierung verwendet wurde, wäre das nicht eine Verschwendung aufgrund von Latenz-Shuffling-Daten CPU < -> GPU?