ich in der Lage bin erfolgreich zu laufen jupyter mit pyspark https://cloud.google.com/dataproc/tutorials/jupyter-notebookPakete Hinzufügen pyspark mit jupyter Notebook
Meine Frage verwendet, ist - wenn ich Pakete hinzufügen, sie durch die pyspark (wie Funken csv oder graphframes) und verwenden Notebook, was ist die beste Praxis zu folgen? Ich kann das Paket in einem neuen pyspark-Job mit der Option --packages hinzufügen, aber wie verbinde ich diesen neuen pyspark-Kontext mit dem Notebook?