Wie richte ich einen TensorFlow in der Google Cloud ein? Ich verstehe, wie Sie eine Google Compute Engine-Instanz erstellen und TensorFlow lokal ausführen. und ein recent Google blog post legt nahe, dass es sollte ein Weg sein, um eine Google Compute Engine-Instanz zu erstellen und TensorFlow Anwendungen in der Cloud laufen:Wie richte ich TensorFlow in der Google Cloud ein?
Machine Learning-Projekte kommen in vielen Größen, und wie wir gesehen haben mit unserem Open-Source-Angebot TensorFlow, Projekte müssen oft skalieren . Einige kleine Aufgaben werden am besten mit einer lokalen Lösung behandelt, die unter Desktop ausgeführt wird, während große Anwendungen sowohl die Skalierung als auch die Zuverlässigkeit einer gehosteten Lösung erfordern. Google Cloud Machine Learning zielt darauf ab, den gesamten Bereich zu unterstützen und einen nahtlosen Übergang von lokalen zu Cloud-Umgebungen zu bieten.
Auch wenn ich ein bisschen viel in der Lektüre dieses, es der Fall sein muss, gegeben, was Plattformen wie Microsofts Azure Angebot im Wettbewerb, dass es einen Weg gibt TensorFlow Anwendungen einzurichten (entwickelt vor Ort und „nahtlos "In die Cloud übertragen, vermutlich mit GPUs" in der Google-Cloud.
Zum Beispiel möchte ich lokal in meiner IDE tuning die Funktionen und Code für mein Projekt, begrenzte Ausbildung und Validierung dort laufen, und schieben Sie den Code regelmäßig in die Cloud, um dort mit (beliebig) größer zu trainieren Ressourcen, und speichern und laden Sie dann das trainierte Modell herunter. Oder vielleicht noch besser, einfach die Graphen (oder Teile von Graphen) in der Cloud mit abstimmbaren Ressourcen ablaufen lassen.
Gibt es eine Möglichkeit, dies zu tun; ist einer geplant? Wie richte ich TensorFlow in der Google Cloud ein?
Dies sieht wie die einzige Option aus. Ich hoffe, sie antworten: Es wird entschieden, welche ML-Plattform verwendet werden soll. – orome