Ich versuche, erstellen Sie eine 78 TB HDF5-Datensatz durch Füllen in einer 2D-Block-Partition Weise. Das ist sehr langsam, wenn der Block, den ich schreibe, Zeilen umspannt, an die noch nie geschrieben wurde, weil HDF5 hineingeht und den Speicherplatz reserviert und die fehlenden Einträge mit Null füllt.Wie hdf5-Dataset mit frühen Zuordnung und keine Füllung mit h5py erstellen
Stattdessen möchte ich, dass h5py den Speicherplatz für mein Dataset zuweist, sobald es erstellt wurde, und es nie füllen. Dies ist mit der CAPI gemäß Tabelle 16 in the HDF5 Dataset documentation möglich, aber wie kann ich dies mit h5py tun, vorzugsweise mit der High-Level-Schnittstelle?
ich die Zeile vergessen habe, in dem die Datei erstellt wurde, würde dies kurz vor seinem der create_dataset Aufruf: f = h5py.File ('mybigdset.h5', 'w') –
ok - hinzugefügt. –
danke für den Vorschlag. Ich erzeuge diese Datei für die Verwendung in einer Anwendung, in der der Zugriff in Blöcken von Zeilen erfolgt, sodass ich kein Chunking verwenden möchte. – AatG