Ich erbte eine riesige JSON-Datei, die ich in elasticsearch indexieren möchte (nicht wirklich eine Datenbank, aber nicht hängen auf es sollte für die meisten db gelten aufnehmen). Ich benutze Knoten, um die Aufnahme zu machen. Ich habe Streams und Async versucht, aber ich bin ratlos Ich habe keinen Rahmen für die Annäherung an dieses Problem - ohne Speicherüberläufe und dergleichen.Index/Aufnahme sehr große JSON-Datei in die Datenbank mit node.js
Ich kann keine 1 bis 1 schreiben, aber es ist effektiv ein multidimensionales Objekt, das etwas aussieht: Ich habe die Dokumentation zu sich nehmen müssen
[
{
document: {
type: 1,
type2: 2,
type3: {...}
},
{...}
]
, kann ich den Elasticsearch-Client verwenden und sie in großen Mengen verarbeiten . Ich muss den Stream verlangsamen, parsen und klumpen.
Total fest ... Hilfe stackoverflow es ist Freitag ich will nach Hause gehen;).
Haben Sie versucht, https://www.npmjs.com/package/json-parse-stream? – migg
das kann die eine Version von JSON-Stream-Parsing Ich habe es nicht versucht, ich werde dieses jetzt versuchen. – unsalted
ok einige Fortschritte mit diesem dieses Modul kann die Lösung sein. – unsalted