Ich versuche R zu verwenden, um große DNA-Sequenzdateien (fastq-Dateien, jeweils mehrere Gigabytes) zu analysieren, aber die Standard-R-Schnittstelle zu diesen Dateien (ShortRead) muss die gesamte Datei auf einmal lesen. Dies passt nicht in den Speicher, so dass es einen Fehler verursacht. Gibt es eine Möglichkeit, dass ich ein paar (tausend) Zeilen gleichzeitig lesen, sie in eine In-Memory-Datei stopfen und dann ShortRead verwenden kann, um aus dieser In-Memory-Datei zu lesen?Gibt es eine Möglichkeit, In-Memory-Dateien in R zu lesen und zu schreiben?
Ich bin auf der Suche nach so etwas wie Perl IO :: Scalar, für R.
Eigentlich glaube ich nicht, dass ich mein Problem damit lösen kann: die fragliche Funktion (readFastq) will eine Datei * name *, also bin ich mir nicht sicher, ob ich stattdessen eine beliebige Verbindung übergeben kann. –
Ich denke, was Sie suchen, wird in den Antworten auf diesen Beitrag beschrieben: http://StackOverflow.com/Questions/1727772/Quickly-Reading-Iy-large-Tables-as-Dataframes-in-R/1820610 Ich besonders wie die sqldf-Lösung. –