Ich benutze Jupyter auf einem Cluster mit Google Dataproc erstellt und es funktioniert sehr gut.Verwalten Sie Google Dataproc preemptible-Arbeiter persistente Festplatte Größe
Ich habe versucht, Cluster "Größe" (Maschinentyp, Bootdiskettengröße, Anzahl der Arbeiter, ...) zu meinen Bedürfnissen anzupassen, und es funktioniert ziemlich gut.
Das Hauptproblem ist, ich bekomme nicht, wie man die persistente Festplattengröße für präemptive Arbeiter ändert.
Ich verwende diesen Befehl ein:
gcloud dataproc clusters create jupyter --project <my_project> --initialization-actions gs://dataproc-initialization-actions/jupyter/jupyter.sh --num-preemptible-workers 0 --master-boot-disk-size 25 --worker-boot-disk-size 10 --worker-machine-type n1-standard-1 --worker-boot-disk-size 10
Ich hoffte, dass die „--worker-boot-disk-size 10
“ Option auch präemptiv diejenigen angewandt worden wäre, aber es kam nicht.
Gibt es also eine Möglichkeit, die Größe der Boot-Disk-Preemptible-Workers zu ändern?
Wird Google mich für die persistente Festplattennutzung des Preemtible Worker aufladen?
Vielen Dank, dass Sie dieses Problem gelöst haben. Wären Sie in der Lage, Ihren Anwendungsfall zu teilen, bei dem die Standardgröße von 100 GB nicht ausreicht? Wenn Sie können, senden Sie bitte eine E-Mail an [email protected] – tix
100 GB war mehr als ich brauchte. Mein Ziel war es, die Plattengröße zu reduzieren, um Kosten zu sparen. –
Hallo, das ist jetzt behoben. Sie können --num-preemptible-workers angeben, wenn Sie einen Cluster erstellen, ohne zuvor präemptive VMs zu erstellen. Siehe: https://cloud.google.com/dataproc/docs/release-notes/service#september_16_2016 – tix