3

Gibt es irgendwelche Algorithmen zum maschinellen Lernen, Vorhersagemodelle, die mir helfen können, exponentiell verteilte Daten zu komprimieren? Ich habe die Datei bereits mit golomb-Codes codiert, was definitiv viel Platz spart, aber das ist nicht genug - ich brauche Kompression. PAQ8L komprimiert nicht genug.Datenkompression - maschinelles Lernen für die exponentielle Verteilung

Bitte fragen Sie bei Bedarf nach der Datei.

exponentialverteilten -

{a, b, b, a, a, b, c, c, a, a, b, a, a, b, a, c, b, a, b , d}

+0

Lose? .... –

+0

Eine Variante der Huffmann-Codierung vielleicht? – biziclop

+0

"PAQ8L komprimiert nicht genug." Was sind deine Erwartungen ? Was ist die Größe der Daten und welche Komprimierungsrate ist "genug"? Ihre Erwartungen sind vielleicht zu hoch als "unerreichbar". Vielleicht könntest du es aber mit cmix versuchen (du brauchst viel Speicher): http://www.byronknoll.com/cmix.html. – flanglet

Antwort

1

Ich glaube nicht, dass es theoretisch möglich ist. Die Golomb code ist bereits optimal für geometrisch verteilte Daten.

+0

Nicht wahr; Google Paq8l; es komprimiert die golombcodierte Saite, die mich zu mindestens 50% interessiert. Ja, es ist definitiv möglich. –

+0

Ja, ich brauche eine verlustfreie Komprimierung. –

+0

Wie in anderen Posts erwähnt, verwenden PAQ * -Algorithmen einen Kontextmischungsalgorithmus. Das heißt, Sie wissen mehr über Daten als nur "exponentiell verteilt". @ Benutzer562688 –

0

Wie in anderen Artikeln erwähnt, verwenden PAQ * -Algorithmen einen Kontextmischungsalgorithmus. Das heißt, Sie wissen mehr über Daten als nur "exponentiell verteilt". Ich denke, der Golomb-Code ist immer noch optimal, wenn nur die Exponentialverteilung über die Daten bekannt ist.