2010-07-13 6 views

Antwort

11

Als Antwort auf eine Antwort möchten Sie vielleicht dieses Interview mit Emil Eifrem (Neo-Gründer): http://www.infoq.com/interviews/eifrem-graphdbs. Sehen Sie sich insbesondere den Teil "Aus der Datenkomplexitätsperspektive heraus an, wie Neo4j dazu beiträgt, die Komplexität der Implementierung bei der Speicherung Ihrer Daten zu verringern?": "Hunderte von Millionen sind wahrscheinlich eine große. Und Milliarden sind definitiv eine große."

Ich war im Gespräch mit Neo-Technologien vor kurzem, in denen sie geteilt, dass die größten Anlagen sie wissen Maschinenweise hat noch nicht mehr als 3-5 Maschinen.

Auch sagte sie, dass die Größe des Graphen Neo4j effizient ist von der Anzahl der Knoten und Kanten in der Grafik abhängig behandeln. Wenn sie alle im Speicher gehalten werden können, sind die meisten Abfragen schnell. Sie finden die Größen für Knoten und Kanten im Speicher unter http://wiki.neo4j.org/content/Configuration_Settings (es sind 9 Bytes pro Knoten und 33 Bytes pro Beziehung).

+1

3-5 Maschinen klingt ziemlich klein ... –

+1

Jep. Das haben wir uns gedacht. Die HighAvailability-Lösung soll mit 20 Maschinen getestet worden sein. Sie haben nicht die Notwendigkeit für mehr Maschinen in der Praxis gesehen. Wenn Sie mit der aktuellen Grenze von 4 Milliarden Primitiven einverstanden sind, kann Ihr Problem zu Schreibgeschwindigkeit werden (was normalerweise in der Geschwindigkeit durch IO begrenzt ist). Das Hinzufügen von Servern skaliert die Lesevorgänge, nicht jedoch die Schreibvorgänge. – Stephan

+0

Es ist 32 Milliarden Primitiven. –

12

Die Anzahl der Knoten und Beziehungen war vor kurzem (mit 1.3 release) auf 32 Milliarden jedes erweitert und eine weitere 64 Milliarden Objekte. Wenn Sie sich die Mailingliste ansehen, gab es kürzlich Anfragen für quitelarge Datenspeicher.