Sie müssen mir vergeben, aber ich versuche einen Funken-Cluster zu erstellen, der sich mit Cassandra verbindet und ein Python-Skript ausführt. Momentan verwende ich datastax enterprise, um Cassandra im Solr-Suchmodus auszuführen. Ich verstehe, dass Sie Cassandra im Analysemodus (mit der Option -k) ausführen müssen, um den von Datastax bereitgestellten Spark-Cassandra-Connector zu verwenden. Zur Zeit habe ich es bekam immer nur zu arbeiten, um die dse Funken Version verwenden, für die es ich um die nächsten Schritte zu machen arbeiten gefolgt:Wie funken Sie mit Cassandra mit Spark-Cassandra-Connector?
- starten dse cassandra in der Analytik Modus
- Änderung $ PYTHONPATH env Variable/path /to/spark/dse/python:/path/to/spark/dse/python/lib/py4j-*.zip:$PYTHONPATH
- Lauf als root des Standalone-Skript mit
python test-script.py
Außerdem habe ich machte einen weiteren Test mit dem Funken allein (nicht in der dse-Version) und versuchte, die Java-Pakete einzubeziehen, die Treiberklassen bilden accesible, ich habe:
- hinzufügen spark.driver.extraClassPath = /path/to/spark-cassandra-connector-SNAPSHOT.jar in die Datei Funken defaults.conf 2.execute
$SPARK_HOME/bin/spark-submit —packages com.datastax.spark:spark-cassandra...
ich habe auch versucht pyspark Shell und testen, ob sc das Verfahren cassandraTable hatte, um zu sehen, ob der Treiber geladen wurde ausgeführt, aber funktioniert nicht, in beiden Fällen wir die folgende Fehlermeldung erhalten:
AttributeError: 'SparkContext' object has no attribute 'cassandraTable'
Mein Ziel ist es, verstehe, was ich muss tun Sie, um die Nicht-dse-Spark-Version mit Cassandra verbinden und die Methoden aus dem Treiber verfügbar zu haben.
Ich möchte auch wissen, ob es möglich ist, den dse Spark-Cassandra-Connector mit einem Cassandra-Knoten zu verwenden, der NICHT mit dse läuft.
Danke für Ihre Hilfe