Ich verwende Google Cloud Dataflow, um gebundene Daten zu verarbeiten und an BigQuery zu senden, und ich möchte, dass etwas verarbeitet und etwas geschrieben wird (wie Stream, nicht Batch). Kann ich das irgendwie?Kann Cloud Dataflow auf irgendeine Weise wie ein Stream ausgegeben werden?
Momentan wartet Dataflow Worker-Prozess nicht alle Daten, und schreibe nach BigQuery, ich versuche, FixedWindow hinzuzufügen und Log Timestamp-Parameter zu verwenden ist ein window_timestamp, aber es funktioniert nicht.
Ich möchte wissen:
- richtige Weg ist, Windowing, dieses Problem zu umgehen?
- Ist BigQueryIO wirklich Batch schreiben oder vielleicht nur nicht auf meinem Dashboard angezeigt (Hintergrund schreiben Stream?)
- Ist eine Möglichkeit zu tun, die ich brauche?
Code Meine Quelle ist hier: http://pastie.org/10907947
Vielen Dank!