Diskussion:Lempel-Ziv-Markow-Algorithmus

aus Wikipedia, der freien Enzyklopädie

Quelle?

"Durchschnittlich besser als bzip2." & "Etwa zweimal schneller als bzip2." Gibts dafür eine Quelle oder einen Nachweis? Ohne würd ich es nicht stehen lassen. --Yarin Kaul 12:55, 27. Okt 2005 (CEST)

Bei der Überprüfung (bzw. Festlegung) solcher Aussagen kommt es natürlich auch auf die Daten und die verwendete Dictionarygröße an. Aber in der Praxis kann ich die Aussagen unterstützen. Denn während die Kompression damit etwas länger braucht, geht das Entpacken mit LZMA in der Tat um einiges schneller. Mein komplettes Mozillaprofil hat unkomprimiert 289 MB, mit bzip2 wurden daraus in 7:25 Minuten 125 MB, mit LZMA ist es 119 MB groß und das hat 8:17 gedauert (Dictionary 900 KB bzw. 1 MB). Der Dekompress dauerte 1:27 bzw. 0:50.
Für eine riesige Datenmenge (Text) mit viel doppelten Daten (von Revision zu Revision ändert sich nicht soviel), guck Dir mal den dewiki-dump All pages with complete edit history an (allerdings ist mir da die Dictionarygröße unbekannt): als bz2: 15,5 GB, als .7z 1,8 GB. --jailbird 16:17, 19. Jul 2006 (CEST)

Diese Angaben sind meines Wissens ziemlich vorsichtig und treffen in der Praxis eigentlich immer deutlich ein. Ist vielleicht schwer, das mit einem Benchmark oder so zu belegen, wo der doch nur eine Stichprobe darstellt und wohl nur Durchschnittswerte liefert - aber ist ja vielleicht besser als nichts und bestimmt nicht schwer aufzutreiben...--Muff cabbage 00:42, 11. Jan. 2011 (CET)

LZMA = lz+dmc(+ppm order 0)?

was mir beim namen erst jetzt einfaellt... ist lzma evtl nichts anderes als ein synonym fuer lz+dmc(+ppm order 0?) dann gaebe es andere programme deren algorithmus gleich waere... dmc = dynamic markov chain. was zuerst als begriff da war weiss ich nicht, aber der name ist wenn man beide varianten ausschreibt irgendwie gleich 81.210.226.160 06:01, 18. Mär. 2007 (CET)

Ich denke, dass das sicherlich nicht der Fall ist. Es gibt sicherlich viele Möglichkeiten, aus ähnlichen Grundbestandteilen ein Komplettsystem zusammenzustellen, die dennoch auch von den Eigenschaften noch recht weit auseinander liegen. PPM wird hier garnicht verwendet, wenngleich die Referenzimplementierung im 7z-Format neben LZMA auch einen PPM-basierten Algorithmus unterstützt (der bei Textdateien zumindest von der Packrate her klar im Vorteil ist). Weiterhin weiß ich zwar nicht recht, was sich hinter Deinem "lz" verbirgt, doch auf Basis der Lempel-Ziff-Algorithmen gibt es eine bunte Familie von unterschiedlichen Algorithmen (LZ77, LZW, LZO, ...).--Muff cabbage 00:42, 11. Jan. 2011 (CET)

Mehrfädigkeit

"Die freie Referenzbibliothek zur LZMA-Kompression wurde in C++ geschrieben und unterstützt Mehrfädigkeit." Mehrfädigkeit? Textiltechnik?

Sollte wohl "Multithread" heissen 8-) (nicht signierter Beitrag von 213.179.137.150 (Diskussion) 09:41, 30. Mär. 2011 (CEST))

Code-Größe

Der Code zum Entpacken von LZMA belegt in kompilierter Form üblicherweise nur etwa 5 kByte.

Für welche Rechner-Plattform trifft dies denn "üblicherweise" zu? --Robb der Physiker 14:04, 20. Jul. 2011 (CEST)

POV?

"Da im Quelltext von 7-Zip ausgedehnter Gebrauch von Windows-spezifischen Eigenschaften gemacht wird, verging nach dessen Erstveröffentlichung einige Zeit bis zum Erscheinen einer Unix-kompatiblen Version, obwohl es sich um freie Software handelt."

Was genau hat UNIX damit zu tun, dass freie Software da auch verfügbar sein muss? der Halbsatz "obwohl es sich um freie Software handelt" hat hier nichts zu suchen... (nicht signierter Beitrag von 77.191.155.188 (Diskussion) 00:05, 4. Nov. 2012 (CET))

Gemeint ist wohl, es hat lange gedauert, obwohl der Sourcecode verfügbar war und die Lizenz eine Portierung erlaubte, im Gegensatz zu geschlossener Software, wo man eine Unix-Version von Null hätte entwickeln müssen. --Matthäus Wander 00:29, 4. Nov. 2012 (CET)

Vergleich mit zip \ deflate

Bei vergleichbaren Einstellungen für Wörterbuch- und Wortgröße, LZMA ist deutlich besser bei Text als deflate. Warum? --Moritzgedig (Diskussion) 18:42, 21. Jul. 2013 (CEST)