I. Einleitung
II. Hintergrund zur digitalen und analogen Kopie
III. Der Bitraten-Vergleich am PC
IV. Folgerung für die Bitrate
V. Bitraten-Praxis
VI. "Digitally Remastered"
VII. Der "ideale" Testaufbau
VIII. Fazit
I. Einleitung
Seit dem Erscheinen der neuen HD-Medien stelle ich mir immer öfters die Frage, ob wir nicht beim Thema HD-Sound verarscht werden. Wieso?
Die Industrie tut sich schwer damit, die HD-Medien an den Mann zu bringen. Zwar steigen die Verkaufszahlen nach Beendigung des Format-Streits, hinken aber immer noch deutlich hinter der DVD her. Die neuen Scheiben haben zwar alle ein tolles Bild, was man aber auch erst richtig ab bestimmten Bildgrößen erkennen kann. So schlecht ist unser PAL-System gar nicht, und wenn man am PC mit ffdshow und co. noch etwas nachhilft, schmilzt der Vorteil noch weiter.
Aber noch schwieriger wirds beim Ton. War bis vor kurzem Dolby Digital mit 448kbps (und neuerdings auch 640kbps) und dts mit 768kbs (und leider nur selten auch 1536kbps) noch der Stand der Dinge, so ist es auf einmal nur noch minderwertig im Vergleich zu DD+ und TrueHD, dts HD-HR und dts HD-MA und PCM. Alle Hersteller und Magazine, ob off- oder online, werden nicht müde, uns das einzutrichtern. Die meisten der Early-Adaptors hören das dann auch so, oder meinen das so zu hören.
Nur was genau hören wir da? Ist wirklich die höhere Bitrate der Grund für den besseren Klang? Oder ist es der Verdienst der Mischer, die am Pult mit ihren unzähligen Reglern ganze Arbeit geleistet haben, um den HD-Sound besser klingen zu lassen?
Kramen wir als Beispiel mal die alte RC2-DVD von "Speed" heraus. Sowohl die deutsche als auch die englische Tonspur liegen in Dolby Digital mit identischer Bitrate vor. Allerdings klingt die englische Spur in jeder Hinsicht deutlich hörbar besser. Hätte jetzt FOX den englischen Ton damals nur in dts veröffentlicht, hätte jedermann den Beweis dafür gehabt, daß dts ja aufgrund der höheren Datenrate viiiieeeel besser klingt als DD. Tatsächlich hat FOX aber nur bewiesen, was man mit vernünftigem Remastern aus einem alten Soundtrack bei gleicher Bitrate noch so zaubern kann.
Ich lehne mich deshalb mal ganz weit aus dem Fenster und behaupte, daß es genau dieses Remastern ist, was die neuen Formate besser als die alten klingen lässt und nicht die ach so hohen Bitraten.
II. Hintergrund zur digitalen und analogen Kopie
Eine andere Bitrate verändert ja den Klang des Originals nicht in der gleichen Weise, wie man es von einer Aufnahme einer Kassette vom CD-Player kennt. In der analogen Welt wird der Klang wärmer oder kälter, dünner oder dicker, spitzer oder dumpfer, heller oder dunkler, oder verzerrter und trotz Dolby C natürlich auch verrauschter
In der digitalen Welt hingegen nimmt man Fehler oder auch Artefakte war, die im Original so nicht enthalten sind. Beispiel: eine Triangel und ein Becken. Das Becken übertönt die Triangel fast komplett.
In der analogen Aufnahme sind beide vorhanden, es klingt je nach verwendetem Tape-Deck und Kassette, sagen wir mal, dicker, wärmer und weniger hell (erst recht nach 10 jahren und dem 30. Abspielen).
In der digitalen Welt: Bei MP3 oder AAC mit 320kbps klingt die Kopie wie das Original, sagen wir mal mit 95%er Deckungsgleichheit.
Bei 192kbps sinkt die Deckungsgleichheit schon beträchtlich, und ein Viertel der Testprobanden würde das Original problemlos von der Kopie unterscheiden können. Der Klang-Charakter ist aber nach wie vor der gleiche: die Kopie klingt vielleicht nicht mehr so sauber, die Triangel wird schon schwieriger rauszuhören sein, aber es klingt noch genauso warm oder kalt, dünn oder dick, spitz oder dumpf, hell oder dunkel wie das Original.
Bei 128kbps ist der Klangcharakter zwar immer noch der gleiche, aber die Triangel klingt schon nicht mehr wie eine solche (wenn man sie überhaupt noch hört), auch das Becken klingt nicht mehr so knackig und spritzig wie im Original, weil bei niedrigen Bitraten auch schon massiv hohe Frequenzen beschnitten werden und der Encodier-Algorythmus außerdem der Ansicht ist, daß die Triangel viel leiser ist und somit vom menschlichen Ohr praktisch kaum noch wahrgenommen wird, und deshalb weitaus weniger Beachtung findet als das Becken.
Nochmal zusammengefasst: Der Klang-Charakter ändert sich bei einer digitalen Kopie nicht bzw. erst bei zu niedrigen Bitraten. Es kommen stattdessen mit sinkender Bitrate Klangverfälschungen und digitale Artefakte dazu. Wer sich darunter nichts vorstellen kann, soll mal sich mal Webradio mit niedriger Bitrate über die Anlage oder noch besser über den Kopfhörer geben. Wenn man dann einen Sender wählt, den es auch über DVB-S gibt (z.B. WDR2 mit 320 kbps MP2 vs. WMA mit 64kbps), dann kann man sogar sehr deutlich vergleichen.
III. Der Bitraten-Vergleich am PC
Klar, in der Theorie müssen die neuen Formate einfach besser klingen. Mit bis zu 24bit Auflösung und bis zu 192kHz Sampling-Frequenz und vielfach höherer Datenrate müssen sie einfach den alten Formaten haushoch überlegen sein.
Ich werde mal ein bisschen technisch und ziehe dazu mal Vergleiche aus dem PC-Bereich. Die verlustbehafteten legacy-Formate könnte man hier mit mp3 gleichsetzen und die neuen HD-Formate mit AAC. Die lossless-Formate PCM, TrueHD und dts HD-MA werden vertreten durch WAV und FLAC (oder mit ZIP oder RAR oder 7Zip gepacktes WAV). Das würde dann, grob vereinfacht natürlich (bei 16bit Auflösung und 48kHz Sampling-Frequenz) und den LFE mal aussen vor gelassen, in etwa so aussehen:
Die Verlustfreien:
- PCM ist quasi das Original. Am PC hat es die Endung .wav.
- TrueHD ist ja das gleiche, nur komprimiert: quasi .wav mit ZIP gepackt (oder halt FLAC, MonkeyAudio oder Apple Lossless Audio, ...)
- für dts HD-MA gilt das nochmal. Hier packen wir aber noch den kompletten Soundtrack als 320kpbs MP3 mit rein (äquivalent zum dts core mit 1536kbps)
Die Verlustbehafteten:
- DD+ mit 640kbps wäre gleich zu setzen mit einem 2-Kanal-AAC zwischen 96 und 128kbps
- DD+ bzw. dts HD mit jeweils 1536kbps entspräche einem 2-Kanal-AAC zwischen 224 und 320 kpbs
- DD mit 384/448/640kpbs entspräche einem 2-Kanal-MP3 mit 76/88/128kbps
- dts mit 768 bzw. 1536kbps entspräche einem 2-Kanal-MP3 mit 160 bzw. 320kbps
Ein 5.1-DD-Signal mit 448kbps soll einem 2.0-MP3 mit nur 88kbps entsprechen? Nun, man muß dazu wissen, daß DD und Co. eigentlich keine feste Bitrate haben. Aufgrund der höheren Anzahl an Kanälen wird die zur Verfügung stehende Bitrate dynamisch je nach Bedarf auf die Kanäle verteilt. Deshalb handelt es sich dabei eigentlich eher um ABR (average bitrate) als um CBR (constant bitrate). Natürlich gibt es ABR auch für MP3 und AAC (LAME-Encoder bzw. Nero-AAC-Encoder vorausgesetzt). Und das DD selbst mit 384kpbs richtig gut klingen kann, beweist die DVD von "Cars" mehr als deutlich genug.
Hinzu kommt, daß die Encoder-Technik im Rahmen der technischen Spezifikationen natürlich immer weiter gegangen ist bzw. immer noch weiter geht. Ein 320kbps CBR MP3 mit dem Xing-Encoder von vor 5 Jahren erstellt, klingt nicht besser als ein 128kbps ABR MP3 mit dem aktuellen LAME-Encoder. Tatsächlich kommen die heutigen 128kbps MP3s der vielerorts propagierten Transparenz zur Audio-CD wesentlich näher als bei Erscheinen des Formats. Aber auch nur, wenn man sich mit Stereo begnügt; denn auf den Surround-Kanälen hagelt es im ProLogic-Modus auch bei aktuellen Encodern digitale Artefakte, daß man Ohrenkrebs bekommt. Erst mit 224kbps (MP3) wirds nach meiner Erfahrung auf den rückwärtigen Kanälen Artefakte-frei (wobei das natürlich auch stark vom Material abhängt). Und hier zeigen sich die Unterschiede zu den neuen Formaten wie AAC oder OggVorbis und wie sie nicht alle heißen: sie sind auf den Effekt-Kanälen schon ab 144kbps quasi Artefakte-frei. [Anm.: die Bitraten-vs.-Artefakte-Erfahrungen entstammen meinen persönlichen Hörtests, die ich mal vor ca. einem Jahr mal gemacht hatte]
Natürlich gibt es Menschen, die auch bei hohen Datenraten noch digitale Artefakte hören. Die Hörtests und die Entwickler des LAME-Encoders im hydrogenaudio-Forum belegen das. Die breiter angelegten Hörtests belegen aber auch, das viele Leute mit den empfohlenen VBR-Einstellungen ab "-V 2 --vbr-new" für LAME keine Unterschiede zum Original mehr hören können [Anm.: "-V 2 --vbr-new" ergibt durschnittliche Bitraten zwischen 170 und 210 kpbs, "V 1" zwischen 200 und 250 und "V 0" zwischen 220 und 260]. Ich behaupte mal, daß die Anzahl derer, die im ABX-Vergleich ein 320kbps-AAC oder -OggVorbis oder selbst -MP3 noch vom CD-Original unterscheiden können, verschwindend gering sein wird.
IV. Folgerung für die Bitrate
"Umgerechnet" auf die legacy-Formate würde das bedeuten, daß bereits der "veraltete" dts-Ton und auch der moderne Dolby Digital Plus mit jeweils 1536kbps genug Bitrate bieten, um praktisch Artefakte-frei zu klingen und quasi vom Original nicht mehr oder nur von ganz wenigen auf der Welt zu unterscheiden sein dürfte.
V. Bitraten-Praxis
Noch obskurer wird die Diskussion, wenn man bedenkt, daß zur Zeit praktisch bei kaum einem Film von der Pre- bis zur Post-Production durchgängig in 24 Bit Auflösung und 192kHz Sampling-Frequenz gearbeitet wird. Wozu auch? Im Kino hat Dolby Digital gerade mal 320kbps (wohlbemerkt mit 5 Kanälen), und dts bringt es auch "nur" auf 882kbps. Und da die Filmfirmen in erster Linie Geld verdienen wollen, ist der tolle Sound natürlich auch eine Kostenfrage. Denn der Bearbeitungsaufwand und die Kosten für Micros, Aufnahme-Geräte, Mischpulte, Effekt-Geräte, Festplatten und was weiß ich noch, steigt mit 24Bit/192kHz dramatisch an.
Festplatten kosten doch heute nichts mehr, könnte man einwenden. Mit dem Platz allein ist es aber nicht getan. Die Sachen müssen ja bearbeitet werden, liegen also gleich mehrmals im Arbeitsspeicher bzw. in der Auslagerungsdatei vor. Und dann sind da noch die CPUs, die den Datenwust abarbeiten müssen. Man kann ja beim SoundProcessing nicht auf Render-Farmen zurückgreifen, wie die Jungs aus der CGI-Abteilung.
Damit man sich von den Größenordnungen mal eine Vorstellung machen kann: Eine Minute 2-Kanal-Aufnahme in 16Bit und 44.1kHz "wiegt" unkomprimiert ca. 10MB, das gleiche in 24/192 ungefähr 70MB (Eine CD wäre damit bereits nach 10 Minuten voll). Ein 2 Stunden-Film bringt es mit 2 Kanälen demnach auf 8.4GB (eine Dual-Layer DVD also), mit 7 Kanälen auf runde 30GB. Wie gemächlich das selbst mit High-End-PCs wird, kann jeder selbst einfach ausprobieren: Das frei verfügbare Audacity herunterladen, und eine Aufname in 24Bit/192kHz starten (was man aufnimmt, spielt keine Rolle). Nach zwei Stunden Aufnahme stoppen und dann mal mit der 8GB-Datei ein bißchen herumspielen. Ein bißchen an dem Equalizer hier oder dem Kompressor da herumdrehen, die Datei abspeichern, woanders hinkopieren usw...
Und was nützt mir der tollste 24bit PCM-Sound, wenn die Mikrofontechnik für die Dialoge in den Staaten häufig den Eindruck macht, als sei sie in den 50er Jahren stehen geblieben. Man führe sich nur mal die Special-Edition von Star Wars - Episode IV zu Gemüte. Gut, die ist "nur" in DD mit 448kbps, aber Ihr wisst, was ich meine: bombastisch geil klingende Effekte und Musik, aber die Dialoge sind so fürchterlich, daß es einem die Nackenhaare kräuselt. Jetzt könnte man argumentieren, der Film ist ja auch aus den 70ern. Dennoch gibt es auch neuere Filme, die sich da ebenfalls nicht mit Ruhm bekleckern. Apollo13 ist auch so ein Fall (RC1-DVD mit 1536kbps dts oder HD-DVD mit 640kbps Dolby Digital Plus): Furios klingender Soundtrack (der Score wurde lt. Abspann in 20Bit aufgenommen), aber wehe man hört die Schauspieler sprechen...
VI. "Digitally Remastered"
Digital remastern kann mittlerweile jeder zu Hause mit einem halbwegs aktuellen PC. Schon mit dem frei verfügbaren Audacity kann man so mancher alten Aufnahme auf die Sprünge helfen und damit ansatzweise nachvollziehen, welche Möglichkeiten die Tontechniker im Studio besitzen, die dazu noch direkt an der Quelle sitzen. Entrauschen, Höhen anspitzen, Bass-Harmonien hinzufügen, PAL-Speedup korrigieren, Dynamik komprimieren, Stereo-Basis verbreitern, Bollerbass entschärfen, und was weiß ich noch...
Eine immer wieder oft vernachlässigte und zugleich extrem simple "Verbesserung" des Sounds lässt sich schon mit einer einfachen, psychoakustischen Maßnahme erreichen: der Lautstärke-Anhebung. Oft genug wurden bei den Dolby-vs-dts-Debatten die vermeintlich besser klingenden dts-Tracks im Nachhinein als einfach nur ein paar Dezibel lauter entlarvt. Bei extremen Pegel-Unterschieden auf der anderen Seite wird der Vergleich genauso unmöglich. So hat z.B. die US-Blu-Ray von "Black Hawk Down" vier Ton-Spuren. Davon eine englische PCM und eine englische DD mit 640kbps. Einen halbwegs brauchbaren Vergleich kann ich mit meinen Komponenten (PS3 per HDMI an Onkyo 905) nicht durchführen, da zwischen Dolby und PCM Spur ein eklatanter Lautstärke-Unterschied besteht, den ich am Verstärker gar nicht so schnell anpassen kann. Ob das an der Scheibe liegt oder an der Hardware-Kombi, weiß ich nicht.
VII. Der "ideale" Testaufbau
Die ganzen Diskussionen, ob dieses oder jenes Tonformat besser ist als das andere (wie lang und breit wurde nicht über DD vs. dts auf DVD debattiert), sind eigentlich so überflüssig wie noch was. Denn solange man nicht das Original zur Verfügung hat und keine Informationen zu verwendeten Encoder-Einstellungen hat, vergleicht man Äpfel mit Birnen, bei denen man obendrein nicht weiß, welcher Dünger zum Einsatz gekommen ist, in welcher Erde die Bäume standen, welcher Unkraut- und Ungeziefer-Vernichter verwendet wurde usw.
Idealerweise müsste man die PCM-Tonspur einer Blu-Ray auf den PC transferieren, und diese dann mit
- FLAC komprimieren (um zu beweisen, daß die komprimierte Ton-Spur genauso wie das Original klingt);
- einem dts-Encoder in dts HD-MA packen (um zu sehen, wer effizienter komprimiert);
- einem Dolby Digital-Encoder in TrueHD packen (ebenfalls um zu sehen, wer effizienter komprimiert);
- einem dts-Encoder in klassisches dts mit 768 und 1536 kbps konvertieren;
- einem dts-Encoder in dts HD-HR mit mehr als 1536kbps konvertieren;
- einem Dolby Digital-Encoder in Dolby Digital Plus mit 640, 1536 oder mehr kbps konvertieren;
- einem Dolby Digital-Encoder in klassisches Dolby Digital mit 448 und 640 kbps konvertieren.
Nur so wäre gewährleistet, daß an keinen Klang- und Lautstärke-Reglern gedreht worden wäre.
Das Ergebnis des anschließenden umfangreichen ABX-Vergleiches würde mich mal brennend interessieren. Denn erst DIESES Ergebnis wäre wirklich aussagekräftig, ob die neuen Formate wirklich so viel besser sind als die alten. Leider wird das so ohne weiteres nicht möglich sein. Und schon gar nicht legal.
VIII. Fazit
Wir als Endverbraucher und sicherlich auch die meisten Schreiber der Fachzeitschriften werden nie erfahren, was die Tontechniker im Studio mit dem Ton veranstaltet haben. Daher ist die Aussage, daß diese oder jene Tonspur besser als auf DVD klänge, wohl meistens einem Remaster zuzuschreiben. Was ja grundsätzlich auch löblich ist. Nur: hätte man auch die "alten" Encoder mit dem neu erstellten Master gefüttert, würde der Unterschied zur HD-Spur meiner Meinung nach verschwindend gering ausfallen und von den meisten Normal-Sterblichen nicht mehr zu unterscheiden sein.
Natürlich erfreuen wir uns alle an einem guten bzw. verbesserten Sound. Sonst würden wir nicht so viel Zeit und Geld in dieses Hobby stecken Daher will ich die neuen Soundformate auch gar nicht komplett zerreden. Ich wollte damit nur mal einen kleinen, aber fundierten Denkanstoß geben, daß man nicht alles glauben muß, was einem die Industrie und die Gazetten einem verklickern wollen.
Ein gerade wieder aktuelles Beispiel dafür, daß auch Fachmagazine Quatsch schreiben können, liest sich in der aktuellen Ausgabe der a.........n. Der Artikel handelt von der PS3, die seit neuestem auch in der Lage ist, dts HD zu dekodieren. Leider ist sie nicht fähig, diesen per Bitstream auszugeben, sondern "nur" per PCM. Man hat dann tatsächlich die Dekodier-Qualität getestet, indem man den PCM-Stream der PS3 mit dem Bitstream eines Panasonic BD-30 verglich. Als Verstärker diente ein Denon 4308. Und tatsächlich seien Unterschiede da, aber "verschwindend gering". "Eine Spur realistischer" sei der Klang des Panasonics. Es wären aber "nur Nuancen", die "nur auf äußerst hochwertigen Anlagen hörbar" seien.
Ganz bestimmt. Das muß man sich nochmal durch den Kopf gehen lassen. Mit "Dekodieren" ist in Bezug auf dts HD Master Audio "Entpacken" gemeint (wir erinnern uns: wav mit Zip gepackt). Das heißt, daß nach dem Entpacken der Ton 1:1 identisch mit dem Original ist. Bei Bitstrem-Übertragung erfolgt das Entpacken im Verstärker (hier Denon), bei PCM-Übertragung im Player (hier PS3). Die D/A-Wandlung erfolgt so oder so erst im Verstärker. Wenn da tatsächlich klangliche Unterschiede auszumachen sein sollten, würde das ja im Umkehrschluß bedeuten, daß sich die PS3 beim Entpacken verrechnet hat. Bei einem Gerät, das genau genug rechnen kann, um auch bei Folding@Home teilnehmen zu dürfen, kann ich mir das nur schwerlich vorstellen.
Es ging zwar aus den Sätzen nicht eindeutig hervor, ob zum Vergleich die dts HD-MA oder HD-HR Ton-Spur gewählt wurde, aber ich weigere mich zu glauben, daß die Zeitschrift dämlich genug war, nur die Daten-reduzierte dts HD-HR zu vergleichen. Dann wären wir wieder bei den Äpfeln und Birnen. Denn daß unterschiedliche Dekoder unterschiedliche Ergebnisse bei verlustbehaftetem Material produzieren können, ist ja nichts neues (der MP3-Dekoder des guten alten Winamp 2.9x z.B. dekodiert nachweislich schlechter als das für den gleichen Player erhältliche MAD-PlugIn). ZIP, RAR, CAB und 7-ZIP hingegen prodzieren zwar unterschiedlich große Archive; nach dem Entpacken sind sie aber wieder gleich groß.
Wie praktisch daher das Argument, daß man den Unterschied "nur auf äußerst hochwertigen Anlagen" festhalten kann. Daher werden wir armen Normalsterblichen also nie das Gegenteil beweisen können, da unsere Anlagen ja im Zweifelsfall nicht hochwertig genug sind...