2012-05-18 4 views
8

Ich habe ein Problem bei der Ausführung bedingter Fragen in HiveQL. Die grundlegende select * from tablename Anweisung funktioniert gut. Der Fehler ist:Execution Error, Rückgabecode 1 von org.apache.hadoop.hive.ql.exec.MapRedTask

Total MapReduce jobs = 1 
Launching Job 1 out of 1 
Number of reduce tasks determined at compile time: 1 
In order to change the average load for a reducer (in bytes): 
    set hive.exec.reducers.bytes.per.reducer=<number> 
In order to limit the maximum number of reducers: 
    set hive.exec.reducers.max=<number> 
In order to set a constant number of reducers: 
    set mapred.reduce.tasks=<number> 
java.net.ConnectException: Call to /0.0.0.0:8021 failed on connection exception: java.net.ConnectException: Connection refused 
     at org.apache.hadoop.ipc.Client.wrapException(Client.java:1134) 
     at org.apache.hadoop.ipc.Client.call(Client.java:1110) 
     at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:226) 
     at org.apache.hadoop.mapred.$Proxy5.getProtocolVersion(Unknown Source) 
     at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:398) 
     at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:384) 
     at org.apache.hadoop.mapred.JobClient.createRPCProxy(JobClient.java:501) 
     at org.apache.hadoop.mapred.JobClient.init(JobClient.java:486) 
     at org.apache.hadoop.mapred.JobClient.<init>(JobClient.java:469) 
     at org.apache.hadoop.hive.ql.exec.ExecDriver.execute(ExecDriver.java:655) 
     at org.apache.hadoop.hive.ql.exec.MapRedTask.execute(MapRedTask.java:123) 
     at org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:130) 
     at org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:57) 
     at org.apache.hadoop.hive.ql.Driver.launchTask(Driver.java:1063) 
     at org.apache.hadoop.hive.ql.Driver.execute(Driver.java:900) 
     at org.apache.hadoop.hive.ql.Driver.run(Driver.java:748) 
     at org.apache.hadoop.hive.cli.CliDriver.processCmd(CliDriver.java:209) 
     at org.apache.hadoop.hive.cli.CliDriver.processLine(CliDriver.java:286) 
     at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:516) 
     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39) 
     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25) 
     at java.lang.reflect.Method.invoke(Method.java:597) 
     at org.apache.hadoop.util.RunJar.main(RunJar.java:186) 
Caused by: java.net.ConnectException: Connection refused 
     at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method) 
     at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:574) 
     at org.apache.hadoop.net.SocketIOWithTimeout.connect(
.... 
Job Submission failed with exception 'java.net.ConnectException(Call to /0.0.0.0:8021 failed on connection exception: java.net.ConnectException: Connection refused)' 
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.MapRedTask 

habe ich versucht, sowohl von Eclipse-IDE und Bienen Shell .Der Ausgang ist gleich. Bitte Hilfe!

+2

Haben Sie die Lösung jetzt? Ich stehe auch vor dem gleichen Problem. – learninghuman

+0

Sie könnten diese Web-App hilfreich finden. http://sql.treasuredata.com –

Antwort

3

In den meisten Fällen wird dieser Fehler durch ein Berechtigungsproblem verursacht wird, in dem der Hive Benutzer den Befehl nicht ausgeführt Zugriffsrechte muss/user/hive

Sie verlassen nun die Konfiguration des Hadoop Hive überprüfen möchten Cluster

1

Ich habe festgestellt, dass Sie mit Hive2 die Art ändern müssen, wie Sie die Anzahl der Reduzierungen angeben, während Sie HiveQL verwenden. Auf Hive1 habe ich verwendet:

SET mapred.reduce.tasks=1 

jedoch auf Hive2 habe ich bemerkt, ich verwenden müssen:

SET mapreduce.job.reduces=1 

hatte ich die gleiche Fehlermeldung und ändert dies löste das Problem für mich.

6

Dies sollte Ihr Problem lösen, da diese Eigenschaft standardmäßig auf true gesetzt wird.

set hive.auto.convert.join.noconditionaltask=false 

hive.auto.convert.join.noconditionaltask - Ob Hive ermöglichen die Optimierung über gemeinsame Umwandlung kommen in mapjoin basierend auf der Eingabedateigröße.

Wenn dieser Paramater ist, und die Summe der Größe für n-1 der Tabellen/Partitionen für ein n-Wege-Join ist kleiner als die angegebene Größe, die Verbindung zu einem mapjoin direkt umgewandelt wird (es gibt keine bedingte Aufgabe).

0

Ich habe ein Cloudera Quickstart-Image mit VirtualBox gemountet. Ich musste folgendes tun, um das Problem zu beheben:

sudo vi /etc/hive/conf/hive-site.xml und setze die hive.auto.convert.join Eigenschaft auf false (du musst root bearbeiten und damit das Sudo).

Ich hatte die hive.auto.convert.join.noconditionaltask Eigenschaft in der hive-site.xml.xml nicht.