Kann ich haben Dateibeobachter auf HDFS?HDFS Dateibeobachter
Szenario: Die Dateien landen auf HDFS continuously.I einen Funken Job gestartet werden soll, sobald die Anzahl der Dateien einen Schwellenwert erreicht (es kann Anzahl von Dateien oder Größe der Dateien sein).
Ist es möglich, File Watcher auf HDFS zu implementieren, um dies zu erreichen. Wenn ja, kann mir jemand den Weg vorschlagen? Welche Möglichkeiten gibt es? Kann der Zookeeper oder der Oozie das machen?
Jede Hilfe wird geschätzt. Danke.
Spark-Streaming hat eine ähnliche Funktion: in [FileInputDStream] (https://github.com/apache/spark/blob/master/streaming/src/main/scala/org/apache/spark/streaming/dstream/FileInputDStream .scala # 172-172) –
Einfache Sache, ich kann denken, dass Sie Unix-Befehl so verwenden können: hadoop fs -ls | wc -l – user3484461
@YijieShen Können Sie es bitte mehr ausarbeiten? –