Ich versuche, eine "Clusterdump" auf die Ausgabe von Mahout Kmeans Clustering Beispiel (synthetische_control Beispiel). Aber ich erlebe den folgenden Fehler:gibt es irgendeine SeqFileDir Option für "Clusterdump" in der neuesten "Apache Mahout" Bibliothek?
> ~/MAHOUT/trunk/bin/mahout clusterdump --seqFileDir clusters-10-final --pointsDir clusteredPoints --output a1.txt
MAHOUT_LOCAL is not set; adding HADOOP_CONF_DIR to classpath.
Running on hadoop, using /usr/lib/hadoop/bin/hadoop and HADOOP_CONF_DIR=/usr/lib/hadoop/conf/
MAHOUT-JOB: /home/<username>/MAHOUT/trunk/examples/target/mahout-examples-0.8-SNAPSHOT-job.jar
12/06/21 22:43:18 WARN conf.Configuration: DEPRECATED: hadoop-site.xml found in the classpath. Usage of hadoop-site.xml is deprecated. Instead use core-site.xml, mapred-site.xml and hdfs-site.xml to override properties of core-default.xml, mapred-default.xml and hdfs-default.xml respectively
12/06/21 22:43:25 ERROR common.AbstractJob: Unexpected --seqFileDir while processing Job-Specific Options:
usage: <command> [Generic Options] [Job-Specific Options]
.....
Also ich denke, es gibt keine "seqFileDir" Option für clusterdump aber alle Online-Tutorials (z https://cwiki.apache.org/MAHOUT/cluster-dumper.html) diese Option beziehen. Können Sie mir bitte das Mittel vorschlagen oder was fehlt mir?
ja ich tat. Als ich --seqFileDir durch --input ersetzte, wurde eine Ausgabedatei generiert , aber das war leer! Wissen Sie, warum die Tutorials über die Option --seqFileDir sprechen? –
Ich arbeitete an diesem Problem. Magisch fand ich die Lösung !!! Danke für Ihren Vorschlag - Eingang arbeitete anstelle von - SeqFileDir Option. Was ich falsch gemacht habe, war, dass ich nicht realisiert habe, dass clusterdump (mit dem HADOOP_HOME-Set) von HDFS liest und die Ausgabe in das lokale Dateisystem schreibt. Wie auch immer, die Dinge funktionieren jetzt gut! –