Registriert: Do Mär 06, 2003 15:27 Beiträge: 281 Wohnort: Bochum
hi, jungs ich bin grad mit zlib am rumwerkeln und frag mich ob es da nicht was freies gibt was stärker komprimieren kann ? kennt ihr da was ? ich habe eine datei die von ~10.6mb auf max. ~6.7mb comprimiert wird per zlib. wenn ich mir dann winAce ansehe kommen mir die tränen, der schafft die sogar auf max. 3mb. ich weiß ace is nich public domain, aber gibt es nich trotzdem nen freien algo der in die gegend kommt ?
btw: "max" steht hierbei für maximale compression, speed is wurscht.
Registriert: Sa Mai 04, 2002 19:48 Beiträge: 3830 Wohnort: Tespe (nahe Hamburg)
Kann mit diesen aufkommenden 7-ZIP nicht wirklich etwas anfangen, halte allerdings bzip2 für überlegen. Das sind allerdings nur Mutmassungen. Die Frage, die sich eher stellen sollte ist doch, ob eine Komprimierung wie bei zlib nicht ausreicht? Webspace, Traffic, Datenträger haben allesamt in der heutigen Zeit nur noch eine untergeordnete Bedeutung und vermutlich liege ich nicht ganz abseits, wenn ich sage, dass eine bessere Komprimierung zumeist mit mehr CPU-Zeit verbunden ist. Die Frage ist also, ob man Kapazitäten damit gewinnen möchte, das der Anwender länger auf eine Verarbeitung warten mächte. Eine schnelle Komprimierung von 10 auf 6 ist da meist vermutlich besser als eine langsam von 10 auf 4. Hier muss man wohl sehen wie sich der Grenznutzen verhält... tendenziell vermutlich eher gering.
_________________ "Light travels faster than sound. This is why some people appear bright, before you can hear them speak..."
Registriert: Di Mai 18, 2004 16:45 Beiträge: 2623 Wohnort: Berlin
Programmiersprache: Go, C/C++
Ich könnte mir vorstellen, wenn du die Daten kompremierfreudiger machst sollte selbst die schlechteste Lib gute erfolge zeigen.
Wavelet ist eine Technik, die die Daten als offset zu den vorigen wert speichert und dann gibt es für bilder nochmal spezielle varianten der verarbeitung.
Die variante der offset verarbeitung ist in dem Sinne praktisch das viele gleiche zahlen und zahlenmuster entstehen,
Jpeg2000 stieg auf diese variante um, da dann die Blockkompremierung die verwendet wird nicht mehr Blöcke sind sondern einzelne pixel im bild.
_________________ "Wer die Freiheit aufgibt um Sicherheit zu gewinnen, der wird am Ende beides verlieren" Benjamin Franklin
Registriert: Do Mär 06, 2003 15:27 Beiträge: 281 Wohnort: Bochum
warum sollte ich son aufwand betreiben wenn ich bei 7zip ne wahnsinns kompression bekomme ohne son aufstand... unter c funzt es ja auch einwandfrei... jo könnte getz ne dll zu dem zweck schreiben, aber zu zlib gibbet ja auch n port... naja mal schauen...
PS: Phob ich stimm dir ja schon zu, aber die CPU zeit ist in meiner situation nicht entscheidend, sondern die kompression... der schafft in meinem beispiel aus 10mb, 1.5mb zu machen...
Registriert: Do Sep 25, 2003 15:56 Beiträge: 7810 Wohnort: Sachsen - ERZ / C
Programmiersprache: Java (, Pascal)
Ich würde Phob da auch nicht unbedingt zustimmen. Wenn die Daten übers netz verteilt werden sollen ist der Zeitliche unterschied 2MB mehr zu laden wesentlich größer als eine komplexe dekompression auszuführen. Anders siehts natürlich aus wenn die Daten lokal verfügbar sind und zur laufzeit entpackt werden sollen.
_________________ Blog: kevin-fleischer.de und fbaingermany.com
Registriert: Sa Mai 04, 2002 19:48 Beiträge: 3830 Wohnort: Tespe (nahe Hamburg)
@flash: Ach? ... deswegen wusseln in der Windows-Welt auch alle noch mit dem ZIP-Algorithmus umher, anstatt den weitaus effektivieren BZIP2 zu verwenden Ob Du nun 600 MB oder 3 GB lädst, macht kaum noch jemanden wirklich etwas aus. Wenn Du aber anfängst eine sehr große stark verschlüsselte 3 GB-Datei zu entpacken, so wirst Du viele Tränen sehen. Standardkomprimierung sind daher für den Regelbetrieb absolut ausreichend und bringen teilweise auch gigantische Ersparnisse. Tak sprach Methoden an, den auch ein ZIP-Algorithmus ermöglicht problemfrei eine 1000x verkleinerung. Allerdings leidet entweder die Datenzusammstellung der komprimierenden Daten darunter oder die CPU. Vergrößert man das Problem nach oben hin und fragt jemanden, ob er Traffic oder CPU-Zeit opfern will, wird dieser den Traffic nehmen. Deswegen werden auch mehr Grids gebaut als Carrier *sg
_________________ "Light travels faster than sound. This is why some people appear bright, before you can hear them speak..."
Registriert: Fr Mai 14, 2004 18:56 Beiträge: 804 Wohnort: GER/OBB/TÖL-WOR/Greiling
Phobeus hat geschrieben:
@flash: Ach? ... deswegen wusseln in der Windows-Welt auch alle noch mit dem ZIP-Algorithmus umher, anstatt den weitaus effektivieren BZIP2 zu verwenden Ob Du nun 600 MB oder 3 GB lädst, macht kaum noch jemanden wirklich etwas aus.
Einspruch, euer Ehren!
Ich hab hier Modem und komprimiere alles, was ich uploaden will, mit 7-zip oder mit Winrar. Winrar wegen einer Diskussion in der DP, die inzwischen leider schon aus dem K&T gepurgt wurde. Da wurden einige sogar persönlich (am tollsten ja diese Aussage: "Ich benutze ja privat auch 7zip, aber wenn man was zum Download anbietet, sollten das möglichst alle benutzen können" - Der Download von 7-Zip hat im Moment gut 800kB, also wenn das nicht alle benutzen können...)... Winrar ist ja einigermassen anerkannt. Wenn ich jetzt tar.gz oder bzip2 anbieten würde (was ja der 7-Zip-Client beherrscht).... das wäre zwar konsequent, aber ich dachte ja, ich sei mit 7-zip schon benutzerfreundlich genug.
Im übrigen finde ich die Zip-Unterstützung in Windows XP absolut miserabel und unperformant.
Registriert: Sa Mai 04, 2002 19:48 Beiträge: 3830 Wohnort: Tespe (nahe Hamburg)
@luke: Ebenfalls Einspruch. In Zeiten von 20 MB Treibern und zig MB Updates, seid Ihr 56k-Modemnutzer eine Randerscheinung. So bitter sich dies für die Leute anhört, die in einer Region leben, wo dies nicht verfügbar ist, aber wir werden noch dieses Jahr bis zu 16MBit Download angeboten bekommen ... evtl. sogar 24. Eine handelsübliche ZIP-Verschlüsselung um leicht zu komprimierende Inhalte etwas zu schrumpfen wird ausreichen... Das dies der Fall ist zeigt die Praxis dadurch, dass es kein bzip2 im breiten Einsatz gibt, dass viele Leute mit dem IE unterwegs sind und PDF/DOC einer HTML-Seite vorgezogen werden. Ich persönlich glaube auch nicht, dass sich an diesem Trend in den nächsten Jahren noch etwas verändern wird, außer eine Ausbreitung der aktuellen Situation.
_________________ "Light travels faster than sound. This is why some people appear bright, before you can hear them speak..."
Mitglieder in diesem Forum: Majestic-12 [Bot] und 2 Gäste
Du darfst keine neuen Themen in diesem Forum erstellen. Du darfst keine Antworten zu Themen in diesem Forum erstellen. Du darfst deine Beiträge in diesem Forum nicht ändern. Du darfst deine Beiträge in diesem Forum nicht löschen. Du darfst keine Dateianhänge in diesem Forum erstellen.