Wie kann ich die R-Pakete zoo oder xts mit sehr großen Datensätzen verwenden? (100GB) Ich weiß, es gibt einige Pakete wie bigrf, ff, bigmemory, die mit diesem Problem umgehen können, aber Sie müssen ihre begrenzten Satz von Befehlen verwenden, sie haben nicht die Funktionen von Zoo oder XTS und ich nicht wissen, wie man Zoo oder xts macht, sie zu benutzen. Wie kann ich es benutzen?Wie verwendet man Zoo oder XTS mit großen Daten?
Ich habe gesehen, dass es auch einige andere Dinge gibt, die mit Datenbanken in Verbindung stehen, wie sqldf und hadoopstreaming, RHadoop oder andere, die von Revolution R verwendet werden. Was raten Sie ?, andere?
Ich möchte nur Serie aggregieren, reinigen und einige Kointegrationen und Plots durchführen. Ich möchte nicht für jeden Befehl, den ich benötige, neue Funktionen kodieren und implementieren müssen, wobei ich jedes Mal kleine Datenstücke verwende.
hinzugefügt: Ich bin auf Windows
Dies ist keine quantitative Finanzfrage. Ich sende das zu Stack Overflow. – chrisaycock
@skan Sie können sehen, 'mmap' Paket, das von Jeff Ryan (Autor von XTS) –
erstellt wurde Siehe auch diesen Beitrag http://r.789695.n4.nabble.com/xts-timeseries-as-shared -memory-objects-with-bigmemory-package-tp3385186p3385252.html –