Ich möchte ein Spark-Skript ausführen und in eine IPython-Shell einfügen, um Daten interaktiv zu untersuchen.Wie Skript in Pyspark ausführen und Drop in IPython-Shell, wenn Sie fertig sind?
Laufen beide:
$ IPYTHON=1 pyspark --master local[2] myscript.py
und
$ IPYTHON=1 spark-submit --master local[2] myscript.py
beide Ausfahrt aus IPython einmal getan.
Dies scheint wirklich einfach, aber nicht finden kann, wie es überall zu tun.
Das scheint die Kontextvariable nicht zu übergeben. sc (Standard) Gedanken ? – trailblazer