Ich habe Daten von einer großen Anzahl von Sensoren (> 500) gestreamt und ich muss diese Daten auf meinem HDFS schreiben. Sensoren senden Daten fast alle 1 Sekunde, und die Größe jeder gedrückten Daten beträgt ~ 300B. Das Problem ist, dass ich bereits erlebt habe, dass, wenn ich anfange, mit dem Append-Modus zu viel Zeug auf dem HDFS zu pushen, es viele Ausnahmen auslöst und hängen bleibt. Ich muss einen Weg finden, um mit dieser riesigen Menge an Schriften pro Sekunde fertig zu werden, wie zum Beispiel eine Mittelschicht, die die Daten speichert und sie dann langsam in das HDFS einfügt. Ich weiß nicht, ob irgendeine DB dafür arbeiten würde, und wenn ja, welches ist das beste?Streamen von Daten auf HDFS mit hohem Durchsatz
UPDATE: Ich habe mich umgesehen, und es ist ziemlich schwer zu verstehen, die Grenze und das Potenzial der verschiedenen Lösungen.
Nun ist meine Frage, ob jemand jemals mit ähnlichen Problemen zu tun hatte, und das könnte eine gute Lösung für meinen Fall sein.