[Sammelthread] Fragen, die die Welt nicht braucht

Ok im Detail also einfach nur die Zukunft der Datenkompression
Hatte das etwas anders aufgenommen beim lesen ;)

PS: Es wird binär immer bei 1 und 0 bleiben. Ganz einfach weil unsere heutige Technik nichts anders kann als An oder Aus da kann man nichts großartig erweitern bis nicht irgendwo ein Durchbruch in irgend einer Zukunftstechnologie kommt.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Stimmt, diese Art wäre ja Packen.
Irgendwie braucht es ja auch alle Informationen letztlich im Handbuch um zu wissen wie die Datei dann beim Empfänger zusammen gesetzt wird.



Eventuell ginge noch etwas:

Man optimiert die Muster innerhalb der Einsen und Nullen.

So könnte sogar ein Weglassen bestimmter Anordnungen von Einsen und Nullen stattdessen selbst für die Information an dieser Stelle stehen.

vom Handy getippselt
 
Stimmt, diese Art wäre ja Packen.
Irgendwie braucht es ja auch alle Informationen letztlich im Handbuch um zu wissen wie die Datei dann beim Empfänger zusammen gesetzt wird.



Eventuell ginge noch etwas:

Man optimiert die Muster innerhalb der Einsen und Nullen.

So könnte sogar ein Weglassen bestimmter Anordnungen von Einsen und Nullen stattdessen selbst für die Information an dieser Stelle stehen.

vom Handy getippselt

Genau DAS passiert doch beim komprimieren...?
 
Ich versteh jetzt auch nicht, wo der Unterschied zum komprimieren sein soll.

Du guckst dir das "Muster" von 1 und 0 an und übermittelst nur wie das Muster aussieht. Und dann wird beim Empfänger wieder das Muster aus 1 und 0 aufgebaut. So funktioniert dann eine Archivbombe.
 
Zuletzt bearbeitet:
Also wäre eine Möglichkeit Daten stark komprimiert über's Internet zu verschicken und die Technik daran anzupassen, dass diese Art effizient schon in Echtzeit standardmäßig verarbeitet wird?

Beim Packen kann man ja unter 7zip schon mit der hohen Kompression gute Ergebnisse feiern.
(Packzeit zu Effizienz)

Bei großen 48bit Tifs oder Videos komprimiert der Packer aber sehr wenig (gilt dort auch für viele andere Packformate)

Es bräuchte also angepasste Technik u. intelligentere Packprogramme und auch eben Rechenleistung.

Danke übrigens für das Auseinandersetzen mit meinen Fragen. Ich habe die Erkältung und daher schreibe ich etwas mehr.
Muss viel grad liegen...

vom Handy getippselt
 
Zuletzt bearbeitet:
Das liegt einfach am Ausgangsmaterial warum bei Videos oder Bildern so schlechte Ergebnisse erzielt werden. (Verlustfreie) Kompressionsalgorithmen arbeiten z.B. mit Redundanzanalyse oder mit Wörterbüchern. Bei Bildmaterial z.B. geht das aber schlecht bis gar nicht weil dort Informationen nicht einfach anders dargestellt bzw. an andere Stellen verwiesen werden können
 
... und das Beispiel mit der TIF ist ja nun auch wieder suboptimal, weil der Sinn des TIF-Formates ja eben der ist, viele informationen zu behalten, um möglichst umfangreiche Arbeiten am Bild zu ermöglichen. Damit man eben deutlich an Helligkeit, Farben, Kontrast usw. mit den originalen (und nicht vom Computer ausgedachten) Daten am TIF rum schraiben kann, muss die Datei groß sein. Zum komprimieren und übers Web verschicken gibt's andere Formate wie JPEG, JPEG2000 oder PNG. Die sind dann schön klein, da kannste aber auch nix mehr retten dann ^^
 
Fimbultyr, darum gings mir nicht. Bin selber Komprimierungskünstler.

Mir geht es darum auch große Infos nicht zu verändern in ihrem Original.

Ob das sinnvoll ist per E-mail ein 69 MB Bild zu schicken?

Natürlich nicht.

Aber was wäre wenn man die Datei so erhalten möchte beispielsweise, also, um zur Praxis zurück zu kommen, der Empfänger z.B. die Datei Raw für seine Bearbeitung genau so will aber immer noch der Wunsch bestehen würde ihm z.B. 500 dieser Raws zu schicken weil Dieser auf der Rückseite der Erde wäre.

Dann bräuchte man einen Packer der intelligenter auch solche Dateien verkleinert, diese aber original belässt.

Ähnlich schaut's mit 32bit Wave Floatmaterial aus (Musikbearbeitung Tonstudio)
Mein Float hat z.B. bei 7.04 min. allein schon 310 MB...

Natürlich kann man dann sagen: Geh wo hin wo schnelleres Internet ist oder reduziere die Dateigröße etwas usw...

Aber mir ginge es ja ursprünglich darum ob man nicht das verschicken auch solcher Dateien kleiner gestalten könnte.

Hier bin ich auch bereit über Zukunftsmusik zu schreiben :)

vom Handy getippselt
 
Zuletzt bearbeitet:
Du beschreibst aber eben die beiden Gegensätze. Entweder du möchtest packen, zippen, komprimieren, Datenvolumen sparen - dann musst du die Originaldaten manipulieren. Die werden dann verändert, z.B. durch Mustererkennung, und so Datenvolumen gespart. Oder du willst die kompletten, originalen Daten, die niemand angefasst hat. Die sind dann genau so groß, wie das Gerät, was die Daten erstellt hat, das will - bei Kameras eben je nach Megapixel usw., bei Tonaufnahmen die Abtastrate usw. usw.
 
Aber bei einigen Dateien kann man ja original lassen und es kommt entpackt ja auch immer das Original raus.

Man bräuchte andere Methoden des Packens für die beschriebenen Formate?

Zumal Ton wie Bild auch aus Einsen u. Nullen bestehen wenn diese digital vorliegen.

Ok, sayer hat die Probleme damit erklärt. Da hat man also noch nicht die entsprechende Packmethode gefunden um auch solche Dateien zu verkleinern.

vom Handy getippselt
 
Zuletzt bearbeitet:
Um mal beim Wörterbuch zu bleiben. Es reicht nicht nur aufzuschreiben, dass das Buch 10000x den Buchstaben a und 2000x den Buchstaben b enthält. Du musst auch wissen, in welcher Reihenfolge die stehen und genau das ist die Sache, die beim Speichern so viel Platz wegnimmt. Da kannst du nicht einfach was weglassen. Das ist kein Problem des technischen Fortschritts, sondern es geht einfach nicht.
Siehe: https://de.wikipedia.org/wiki/Entropie_(Informationstheorie)
 
Ah, glaube ich verstehe :)
Nehmen wir ein Foto.

Jeder Pixel hat z.B. eine ganz bestimmte Stelle wo er hin muss auf 2 Achsen.

Somit wäre das gepackte Bild nicht viel kleiner als das Original selbst bei aufwendigsten Packmethoden.
(Derzeitiges Verfahren)

vom Handy getippselt
 
Ich denke die Übermittlung von großen Daten wird in naher Zukunft weniger durch aufwendige bzw. neue Kompressionsmethoden gelöst sondern eher durch neue und leistungsfähigere Übertragungswege. Kompression ist einfach nach aktuellen Theorien und nach der Leistungsfähigkeit der Technik an einer Grenze die nur schwer ohne Weiteres überwunden und massiv verbessert werden kann. Ich denke wir werden hier erst wieder maßgebliche Veränderungen sehen wenn Theorien wie der Quantencomputer oder Ähnliches außerhalb des Labors realisiert werden können oder ein (zufälliger) Durchbruch gelingt.

Übertragungswege lassen sich einfach im Vergleich zur Kompression mit heutiger Technik schon weit über die in privaten Haushalten etablierten Geschwindigkeiten realisieren (natürlich unter massiven Kosten).
 
Das liegt nahe. Mal sehen wie lange noch überhaupt für die Spässe Geld bereit gestellt wird...

vom Handy getippselt
 
@tree
Mal nach Huffman Code googeln.

Außerdem 1 und 0 das ist Mathematik. Du kannst in einem Hertz (oder einem Takt oder wie man es sagen will) mehr als 1 Bit übertragen.
 
Uäääääh... treese Diskussion :heul:
 
Ich wette das mit dem Hertz hat das Hannes'sche Fass zum Überlaufen gebracht :d
 
Hier wird einfach mit Unfug um sich geworfen, dass es kracht :shake:
Jop,
allerdings ist das doch nichts was der normale PC User wissen muss :d

Das was ich mit dem Hertz meine haben wir nur kurz angerissen, aber du wirst sicher wissen was ich meine und kannst es besser erklären.
 
Zuletzt bearbeitet:
Hier wird einfach mit Unfug um sich geworfen, dass es kracht :shake:
Das es Unfug ist ohne zu begründen ist genau so Unfug und kann gespart werden denn das ist nicht konstruktiv, noch freundlich und schon gar nicht respektvoll!
Prüfe besser mal Deine wahren Absichten.

Wenn Du etwas zu sagen hast dazu und etwas weißt freue ich mich auch von Dir etwas dazu zu lesen und gerne auch zu lernen.

vom Handy getippselt
 
3r84k6ff.gif
 
Ok, eindeutig verstanden :haha: Spassigeres Mobben macht mehr Laune als zu argumentieren :d

Leider interessiert mich das aber weniger und bringt mich dann bei meinen Überlegungen nicht weiter.
Für die konstruktiven Beiträge bedanke ich mich. Etwas habe ich mitnehmen können :)

vom Handy getippselt
 
Klar.

Das Prinzip ist einfach: Von einem Softwarepaket - nennen wir es der Einfachkeit halber "Windows XP Professional SP2" wird eine Iso angefertigt. Nach Umbenennung der Dateinamenerweiterung von .iso in .wav kann das File von jedem gängigen Ripper ins mp3-Format encodiert werden. Die besten Ergebnisse wurden mit dem freien LAME-Encoder erzielt. Ungefähr 90% Reduktion der Filegröße sind die Folge, setzt man die übliche 128kBit/sec-Datenrate ein.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh