Ich habe Anaconda installiert und habe auch Spark 1.6.2 heruntergeladen. Ich verwende die folgenden Anweisungen aus dieser Antwort Funken zu konfigurieren für Jupyter enter link description herePyspark Befehl nicht erkannt
Ich habe heruntergeladen und entpackt die Funken Verzeichnis als
~/spark
Nun, wenn ich cd in dieses Verzeichnis und in bin ich folgendes
sehenSFOM00618927A:spark $ cd bin
SFOM00618927A:bin $ ls
beeline pyspark run-example.cmd spark-class2.cmd spark-sql sparkR
beeline.cmd pyspark.cmd run-example2.cmd spark-shell spark-submit sparkR.cmd
load-spark-env.cmd pyspark2.cmd spark-class spark-shell.cmd spark-submit.cmd sparkR2.cmd
load-spark-env.sh run-example spark-class.cmd spark-shell2.cmd spark-submit2.cmd
ich habe auch die Umgebungsvariablen wie meine .bash_profile in der obigen Antwort erwähnt und .profile
Jetzt im spark/bin-Verzeichnis muss ich als erstes prüfen, ob der pyspark-Befehl zuerst auf der Shell funktioniert.
So mache ich das nach cd Funken tun/bin
SFOM00618927A:bin $ pyspark
-bash: pyspark: command not found
Gemäß der Antwort nach folgenden alle Schritte, die ich nur tun kann
pyspark
in Terminal in ein beliebiges Verzeichnis, und es sollte beginnen ein Jupiter-Notizbuch mit Funkenmotor. Aber selbst der pyspark in der Shell funktioniert nicht. Vergessen Sie nicht, es auf dem Juypter-Notebook laufen zu lassen.
Bitte geben Sie an, was hier falsch läuft.
Edit:
Ich habe
open .profile
im Home-Verzeichnis und das ist, was in dem Pfad gespeichert wird.
export PATH=/Users/854319/anaconda/bin:/usr/local/bin:/usr/bin:/bin:/usr/sbin:/sbin:/Library/TeX/texbin:/Users/854319/spark/bin
export PYSPARK_DRIVER_PYTHON=ipython
export PYSPARK_DRIVER_PYTHON_OPTS='notebook' pyspark
Haben Sie Schritt 8 der Antwort gefolgt? Den bin-Ordner zur PATH-Umgebungsvariablen hinzufügen? – rfkortekaas
Nach cd spark/bin, $ ./pyspark wird funktionieren, haben Sie versucht, dies –
@rfkortekaas Ja, ich folgte Schritt 8 der Antwort. Ich habe alle die im Pfad immer noch nicht funktioniert – Baktaawar