Ich versuche, Datenfluss-Pipeline mit Feder Wolke Datenfluss mithilfe der Shell (Not UI) zu erstellen. Quelle wird twitterstream und sinkt als Datei. Hier ist, was ich tat Datei-Senke zu konfigurieren:Kann nicht gestreamte Daten zu versenken Datei mithilfe von Spring Wolke Datenfluss schreiben
dataflow:>stream create demo --definition "twitterstream --credentials | file --dir=/opt/datastream --mode=APPEND --filename=tweets.txt"
ich Daten von kafka Thema verbrauchen kann, aber nicht in der Lage über das Waschbecken Lage an zu schreiben, wird Datei nicht einmal erstellt. KEIN Fehlerprotokoll beim Bereitstellen des Streams. Schließlich werde ich es vom lokalen Dateisystem in HDFS ändern. Fehlt etwas?
PS: Ich habe versucht Standard-Datei-Senke (ohne Definition), die Standarddatei in/tmp/xd/output erstellen soll, ist auch nicht passiert.
Danke Sabbby, das hat gut funktioniert. – thedheeraz
Können Sie bitte eine Demo auf hdfs Sink vorschlagen? Ich mache es nicht mit 'datenfluss:> stream erstellen demo --definition" twitterstream | hdfs --verzeichnis = hdfs: // ipaddress: 9000/benutzer/ergebnis --file-name = demo ". – thedheeraz
Sie müssen verwenden '--fs-uri = hdfs: // ipadresse: 9000' Eigenschaft, um den 'NameNode'-URI zu übergeben und das Verzeichnis sollte der Ordner sein. In Ihrem Fall, --verzeichnis =/user/result'. Bitte folgen Sie die [docs] (http://docs.spring.io/spring-cloud-stream-app-starters/docs/1.0.0.RC1/reference/htmlsingle/#spring-cloud-stream-modules-hdfs-sink) . –