2016-07-21 9 views
0

Ich möchte Daten aus einer Oracle-Datenbank in Hive mit Sqoop importieren. Ich möchte, dass Sqoop die Tabelle in die Ziel-Hive-Datenbank erstellt.Sqoop Oracle Import erstellt keine Tabelle

Ich legte die Oracle JDBC (ojdbc6.jar) in das Sqoop-Verzeichnis lib.

Ich versuche diese 2 Methoden, aber keine von ihnen funktioniert.

sqoop import \ 
    --connect jdbc:oracle:thin:@${DB_HOST}:${DB_PORT}:${DB_NAME} \ 
    --username ${DB_USER} \ 
    --password ${DB_PWD} \ 
    --table ${INPUT_TABLE} \ 
    --hcatalog-home /usr/hdp/current/hive-webhcat \ 
    --hcatalog-database ${OUTPUT_DB} \ 
    --hcatalog-table ${OUTPUT_TABLE} \ 
    --create-hcatalog-table \ 
    --num-mappers 1 


sqoop import \ 
    --connect jdbc:oracle:thin:@${DB_HOST}:${DB_PORT}:${DB_NAME} \ 
    --username ${DB_USER} \ 
    --password ${DB_PWD} \ 
    --hive-home /usr/hdp/current/hive \ 
    --hive-import \ 
    --create-hive-table \ 
    --hive-table "${OUTPUT_DB}.${OUTPUT_TABLE}" \ 
    --table ${INPUT_TABLE} 

Ich habe diese Fehlermeldung:

ERROR tool.ImportTool: Imported Failed: There is no column found in the target table input_table. Please ensure that your table name is correct.

Es scheint Sqoop nicht berücksichtigt nicht die --create-hcatalog-Tabelle oder --create-Nest-Tabelle

jedoch Wenn ich Daten aus PostgreSQL mit Sqoop importiere, funktioniert die Tabellenerstellung gut. Irgendwelche Ideen? Danke

Zur Information lesen Sqoop gut die Oracle-Tabelle. Ich lief diesen Befehl und bekam das gute Ergebnis:

sqoop eval \ 
    --connect jdbc:oracle:thin:@${DB_HOST}:${DB_PORT}:${DB_NAME} \ 
    --username ${DB_USER} \ 
    --password ${DB_PWD} \ 
    --query "select count(1) from input_table" 

Die vollständigen Protokolle meiner Fehler:

16/07/21 18:08:29 INFO sqoop.Sqoop: Running Sqoop version: 1.4.6.2.4.0.0-169 
16/07/21 18:08:29 DEBUG tool.BaseSqoopTool: Enabled debug logging. 
16/07/21 18:08:29 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider using -P instead. 
16/07/21 18:08:29 INFO tool.BaseSqoopTool: Using Hive-specific delimiters for output. You can override 
16/07/21 18:08:29 INFO tool.BaseSqoopTool: delimiters with --fields-terminated-by, etc. 
16/07/21 18:08:29 DEBUG sqoop.ConnFactory: Loaded manager factory: org.apache.sqoop.manager.oracle.OraOopManagerFactory 
16/07/21 18:08:29 DEBUG sqoop.ConnFactory: Loaded manager factory: com.cloudera.sqoop.manager.DefaultManagerFactory 
16/07/21 18:08:29 DEBUG sqoop.ConnFactory: Trying ManagerFactory: org.apache.sqoop.manager.oracle.OraOopManagerFactory 
16/07/21 18:08:29 DEBUG oracle.OraOopManagerFactory: Data Connector for Oracle and Hadoop can be called by Sqoop! 
16/07/21 18:08:29 INFO oracle.OraOopManagerFactory: Data Connector for Oracle and Hadoop is disabled. 
16/07/21 18:08:29 DEBUG sqoop.ConnFactory: Trying ManagerFactory: com.cloudera.sqoop.manager.DefaultManagerFactory 
16/07/21 18:08:29 DEBUG manager.DefaultManagerFactory: Trying with scheme: jdbc:oracle:thin:@host:1521:sid 
16/07/21 18:08:29 DEBUG manager.OracleManager$ConnCache: Instantiated new connection cache. 
16/07/21 18:08:29 INFO manager.SqlManager: Using default fetchSize of 1000 
16/07/21 18:08:29 DEBUG sqoop.ConnFactory: Instantiated ConnManager [email protected] 
16/07/21 18:08:29 INFO tool.CodeGenTool: Beginning code generation 
16/07/21 18:08:29 DEBUG manager.OracleManager: Using column names query: SELECT t.* FROM input_table t WHERE 1=0 
16/07/21 18:08:29 DEBUG manager.SqlManager: Execute getColumnInfoRawQuery : SELECT t.* FROM input_table t WHERE 1=0 
SLF4J: Class path contains multiple SLF4J bindings. 
SLF4J: Found binding in [jar:file:/usr/hdp/2.4.0.0-169/hadoop/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class] 
SLF4J: Found binding in [jar:file:/usr/hdp/2.4.0.0-169/zookeeper/lib/slf4j-log4j12-1.6.1.jar!/org/slf4j/impl/StaticLoggerBinder.class] 
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. 
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory] 
16/07/21 18:08:30 DEBUG manager.OracleManager: Creating a new connection for jdbc:oracle:thin:@host:1521:sid/user, using username: user 
16/07/21 18:08:30 DEBUG manager.OracleManager: No connection paramenters specified. Using regular API for making connection. 
16/07/21 18:08:30 INFO manager.OracleManager: Time zone has been set to GMT 
16/07/21 18:08:30 DEBUG manager.SqlManager: Using fetchSize for next query: 1000 
16/07/21 18:08:30 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM input_table t WHERE 1=0 
16/07/21 18:08:30 DEBUG manager.SqlManager: Found column c1 of type [2, 10, 0] 
16/07/21 18:08:30 DEBUG manager.SqlManager: Found column c2 of type [2, 10, 0] 
16/07/21 18:08:30 DEBUG manager.SqlManager: Found column c3 of type [12, 20, 0] 
16/07/21 18:08:30 DEBUG manager.SqlManager: Found column c4 of type [2, 0, -127] 
16/07/21 18:08:30 DEBUG manager.SqlManager: Found column c5 of type [2, 0, -127] 
16/07/21 18:08:30 DEBUG manager.SqlManager: Found column c6 of type [12, 80, 0] 
16/07/21 18:08:30 DEBUG manager.SqlManager: Found column c7 of type [93, 0, 0] 
16/07/21 18:08:30 DEBUG manager.SqlManager: Found column c8 of type [12, 20, 0] 
16/07/21 18:08:30 DEBUG manager.OracleManager$ConnCache: Caching released connection for jdbc:oracle:thin:@host:1521:sid/user 
16/07/21 18:08:30 ERROR tool.ImportTool: Imported Failed: There is no column found in the target table intput_table. Please ensure that your table name is correct. 
+0

'--hive-import' erstellt automatisch eine Tabelle im Stock, die in' --hive-table' erwähnt wird. Setzen Sie "-verbose" am Ende Ihrer Importabfrage (_erlangen erweiterte Logs_) und teilen Sie komplette Logs. –

+0

Bearbeitete meinen Beitrag mit den vollständigen Logs mit der ausführlichen Option – Mouette

+0

Fehler im Log sagt 'Zieltabelle input_table', aber Sie haben' output_table' zitiert Stellen Sie sicher, dass die Werte für $ {OUTPUT_TABLE} und $ {INPUT_TABLE} korrekt sind. sind alle Spalten 'int' Typ? - Versuchen Sie zuerst, ohne Variablen (mit tatsächlichen Werten) zu laufen. –

Antwort

1

ich eine Lösung gefunden, wie es scheint, dass der --table Parameter nicht gut funktionierte für Ich, also habe ich --query Parameter stattdessen verwendet.

sqoop import \ 
     --connect ${DB_CNX_STR} \ 
     --username ${DB_USER} \ 
     --password ${DB_PWD} \ 
     --query "SELECT * FROM ${INPUT_TABLE} WHERE \$CONDITIONS" \ 
     --target-dir ${TARGET_DIR}/${INPUT_TABLE} \ 
     --hive-import \ 
     --hive-home "/usr/hdp/current/hive" \ 
     --create-hive-table \ 
     --hive-table "${OUTPUT_DB}.${OUTPUT_TABLE}" \ 
     --num-mappers 1