Schließlich muss ich 35 GB Daten in einer Aragnodb-Instanz laden.
Bisher habe ich diese Ansätze versucht nur 5GB zu laden (und nicht):Bulimimport/arangoimp
über Gremlin Laden. Es hat funktioniert, aber es dauerte ungefähr 3 Tage; Das ist keine Option.
bulkimport verfügt über einen
import?
API-Endpunkt, aber ich habe den folgenden Fehler:
...[1] WARNING maximal body size is 536870912, request body size is -2032123904
arangodbimp Befehl, aber ich endete mit zwei verschiedenen Fehler auf:
- Ohne/small
--batch-size
es feuert
import file is too big. please increase the value of --batch-size
- Mit einem größeren
--batch-size
gibt es den gleichen Fehler wie der Bulkimport zurück.
- Ohne/small
Könnte mir jemand sagen, wie sie zu beheben haben Befehle, oder ein Weg, um tatsächlich diese Daten zu laden?
Dank
Edit für @DavidThomas, kommt hier die Spezifikationen:
- RAM: 128G
- CPU: 2x Intel (R) Xeon (R) Prozessor E5-2420 0 @ 1.90GHz
- OS: Linux (ubuntu) Sneezy 3.13.0-86-generic
- HDD: klassische (non SSD)
Was waren die Spezifikationen Ihres ArangoDB-Servers? RAM, Festplatte, CPU, Betriebssystem. Ich weiß, RAM ist wichtig. Ich bin auch an meiner Arbeit in Arango interessiert. Prost, –
Danke für die Statistiken. Ich habe Importe durchgeführt, aber eine node.js-App verwendet, um einen Stream-Reader für die Importdatei zu öffnen (im CSV- oder JSON-Format) und dann die Datensätze einfach mit dem .createReadStream innerhalb des fs-Pakets zu übertragen. Das Ausschalten von WaitForSync kann die Geschwindigkeit erhöhen, aber es können andere Probleme auftreten. Ich bin daran interessiert zu sehen, Arango Unterstützung dies zu beantworten. –