2016-07-28 20 views
1

Wenn ich this example folgen und versuchen, den Befehl spark-submit im cloudera vm envirionrment zu verwenden, ich folgende Fehlermeldung ständig erhalten:Kann nicht PySpark (nicht mit interaktiv Shell) auf Cloudera VM läuft

ERROR spark.SparkContext: Error initializing SparkContext. 
org.apache.hadoop.security.AccessControlException: Permission denied: user=cloudera, access=WRITE, inode="/user/spark/applicationHistory":spark:supergroup:drwxr-xr-x 
.... 
Traceback (most recent call last): 
File "/home/cloudera/wordcount.py", line 9, in <module> 
sc = SparkContext(conf=conf) 
File "/usr/lib/spark/python/lib/pyspark.zip/pyspark/context.py", line 115, in __init__ 
File "/usr/lib/spark/python/lib/pyspark.zip/pyspark/context.py", line 172, in _do_init 
File "/usr/lib/spark/python/lib/pyspark.zip/pyspark/context.py", line 235, in _initialize_context 
File "/usr/lib/spark/python/lib/py4j-0.9-src.zip/py4j/java_gateway.py", line 1064, in __call__ 
File "/usr/lib/spark/python/lib/py4j-0.9-src.zip/py4j/protocol.py", line 308, in get_return_value 
py4j.protocol.Py4JJavaError: An error occurred while calling None.org.apache.spark.api.java.JavaSparkContext. 
: org.apache.hadoop.security.AccessControlException: Permission denied: user=cloudera, access=WRITE, inode="/user/spark/applicationHistory":spark:supergroup:drwxr-xr-x 

ich dies versucht habe, zwei Befehle:

1, $ spark-submit --master yarn --deploy-mode client --executor-memory 1g \ --name wordcount --conf "spark.app.id=wordcount" wordcount.py hdfs://namenode_host:8020/path/to/inputfile.txt

2, $ spark-submit --master yarn --deploy-mode client --executor-memory 1g \ --name wordcount --conf "spark.app.id=wordcount" wordcount.py inputfile.txt

Kann jemand helfen?

+1

Sieht aus wie Sie ausführen müssen 'chmod' oder' chown' Ihre Benutzer einige Berechtigungen –

+0

Wie @ cricket_007 erwähnt zu geben, ist es ein Berechtigungsproblem. Es scheint, als hätte Sparks 'applicationHistory' nicht genügend Berechtigungen. Sie können versuchen, Berechtigungen wie folgt zu erteilen: 'sudo -u spark hadoop fs -chmod 777/user/spark/applicationHistory' – KartikKannapur

Antwort

0

Versuchen Sie es mit der folgenden Umgebungsvariablen ausgeführt wird:

HADOOP_USER_NAME=hdfs spark-submit <your command>