Ich weiß, dass ich es als Paket Anforderung hinzufügen soll, wenn pyspark Start:Wie füge ich das Databricks Funken csv-Paket zu einem Notebook Python Jupyter auf IBM Bluemix
$SPARK_HOME/bin/spark-shell --packages com.databricks:spark-csv_2.11:1.4.0
Aber in Bluemix, Funke bereits läuft und ein Funkenkontext ist bereits definiert. Wie kann ich dieses Paket hinzufügen?
Eine Randnotiz, wäre ich in der Lage, dies in Scala zu tun?