[Sammelthread] DVB und was passiert mit den Daten

Ihr habt alle Recht!
Ich wollte alle Übertragungsarten mit einbeziehen (C,T, & S); aber habe das T schlichtweg vergessen. Mir ging es vorranging um die Feststellung, daß egal bei welchem digitalen Fernseh Signal, die Übertragung erst einmal ANALOG ist. Problematik mit Demodulation, FastFourrierTransformation, und Viterbi Filter wurde von FaxenDicke in Post#12 super beschrieben.

Ursprünglich hatte ich auch PC Karten und SetTopBoxen über einen Kamm geschert, weil ich davon ausging daß beide das Bild bearbeiten. Mittlerweile sind wir uns ja alle einig, daß Decoding und Rendern von der GraKa/Codecs erledigt wird.

@Sailor Moon
Bin (wie immer) von deinem Wissen in Sachen Video/Graphik beindruckt!
Wo genau passiert das "Chroma Subsampling"? Im Graphikkarten Treiber, oder in der Software (z.B. DVB Viewer)?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wo genau passiert das "Chroma Subsampling"?
Das Subsampling geschieht vor bzw. im Rahmen der MPEG Kompression, bzw. bereits im vorgeschalteten Workflow (hier wird meist mit 4:2:2 gearbeitet und für den Broadcast dann nochmal auf 4:2:0 heruntergegangen, was einer halbierten horizontalen und vertikalen Farbauflösung entspricht). Der Decoder führt dann empfängerseitig ein Upsampling nach 4:2:2 durch, stellt also die vertikale Farbauflösung wieder her (natürlich nicht verlustfrei). Ein weiteres Upsampling nach 4:4:4 oder eben Transkodierung nach RGB ist dann optional im weiteren Verlauf möglich.

Gruß

Denis
 
Zuletzt bearbeitet:
MPEG Kompression, bedeutet also vor dem Ausstrahlen!?!?!? Oder.
MPEG de-komprimierung dann auf dem PC!?!? Wo/wer macht das????
 
@Sailor Moon
Bin (wie immer) von deinem Wissen in Sachen Video/Graphik beindruckt!
Wo genau passiert das "Chroma Subsampling"? Im Graphikkarten Treiber, oder in der Software (z.B. DVB Viewer)?

Ich bin zwar nicht Sailor Moon, antworte aber trotzdem ;-)

Vorweg, Chroma Upsampling muss *immer* erfolgen, ausser Du verwendest ein Röhrengerät, aber alle digitalen Displays, Beamer, what ever benötigen am Ende 3 Werte pro Pixel und zwar Rot Grün und Blau. Nun werden ja im Consumerbereich nur die Helligkeitsinformationen (Luma) für jeden Pixel übertragen und die Farbinformationen (Chroma) nur für je 4 Pixel zusammen - das bedeutet 4:2:0. Im Broadcastbereich werden oft Signale 4:2:2 übertragen, das heisst dann das Du für je 2 Pixel eine Chromainfo hast.

In einem PC (davon gehe ich nun aus, Settop Boxen ignoriere ich) hast Du nun also ein auf 4:2:0 reduziertes Signal, welches per MPEG2/H.264/VC-1/etc. codiert ist. Zuerst wird decodiert (Codec - CoreAVC, ffdshow, etc.), diese Codecs können nun verschiedene Signaltypen ausgeben (yv12, yuv2, rgb24, rgb32, etc.) und werden je nachdem was der anschliessende Renderer verlangt das auch tun. Dabei upsamplen sie bei allen Arten ausser yv12 und nv12 schon das Chroma (mehr schlecht als recht imho), bzw wandeln sogar schon von YCbCr nach RGB (wenn die Ausgabe rgb24, oder rgb32 ist). Wenn ich nun den Decoder per yv12 mit dem Renderer verbinde, dann kann der Renderer dieses Upscaling und die Wandlung übernehmen, oder die Grafikkarte anschliessend (kommt darauf an was im Treiber eingestellt ist), oder ich gebe YUV per HDMI aus, dann wird nur upgescaled (Chroma, 4:2:2, oder 4:4:4 je nach Treibereinstellung) und im TV/Beamer dann nach RGB gewandelt - am Ende *muss* das Signal als RGB vorliegen sonst kann es nicht aufs Panel und weil der TV nur noch ein schon scaliertes Signal bekommt weiss er nicht ob das Ursprungssignal SD oder HD war und kann so nciht immer die passende Matrix (601 oder 709) anwenden, daher ist es *nicht* empfehlenswert per YUV aus der GraKa zu gehen, sondern RGB ist immer besser.

Das Ganze ist ein sehr heisses Thema atm im Bereich "HighEnd HTPC", weil es schon immer störte das man so wenig einfluss darauf hatte, seit kurzem gibts den madVR als Renderer (doom9.org im Forum mal nach suchen), der genau das kann. Er nimmt *nur* yv12 an (also das originale 4:2:0 Signal) und scaled dieses hoch, dabei lassen sich diverse Algorithmen auswählen (bis hoch zu Lanczos8, oder Spline64) und zwar für Luma und Chroma seperat ! Des weiteren kann dieser Renderer noch mit 3D LUTs umgehen für die Umrechnung von YCbCr nach RGB und dithered die Ergebnisse was extrem hilfreich gegen Banding ist. Problem ist das ist alles noch sehr Alpha Stadium ;-)

So hoffe ich habe genug verwirrt - am besten mal die passenden Threads bei doom9.org, oder in entsprechend etwas spezialisierteren htpc foren nach lesen ... ist keine so einfache Angelegenheit.
 
Soviel zum Dogma, daß YUV besser als RGB ist.......

Ich habe die Diskussion auf DVI/HDMI beschränkt. Dabei werden die Videodaten (4:2:0) an den LCD TV abgegeben, oder??? Bei HDMI 1.3 erst 24bit RGB und 36bit YUV, also 4:4:4.
Mir ist immernoch schleierhaft, wo aus dem Transportstream die Umwandlung zum entgültigen TV/Monitor Bild passiert....
 
HDMI überträgt YUV 4:2:2 oder 4:4:4 (kannst Du im GraKa Treiber auswählen), oder RGB 4:4:4 - zusätzlich kannst Du noch wählen ob TV Level (16-235), oder PC Level (0-255)... ist jedenfalls im CCC der Fall.

Verschiedene Komponenten in der Kette können das upscaling und die rgb wandlung durchführen, das kommt auf die Einstellungen an ;-) Schau mal im CoreAVC was der alles an Ausgangsverbindungen zulässt, da ist halt von yv12 (nix wird verändert) bis rgb32 (upscaling + wandlung) alles dabei... *DU* kannst auswählen wo was gewandelt wird auf einem PC halt mit den diversen Einstellmöglichkeiten.

Kurze Beschreibung der typischen Kette fürs TV schauen:

DVBFilter vom DVBViewer -> Codec -> Postprocessing (optional) -> Renderer -> GraKa -> TV

Da madVR noch heftiges Alphastadium ist würde ich nach dem Codec ein Postprocessing (ffdshow) verwenden und dort alle Scalierungen + Umwandlungen vornehmen. Sprich yv12 raus aus dem Codec, dann ffdshow und dort skalieren und die HQ RGB Wandlung machen (je nach Eingangssignal 601 oder 709 Matrix verwenden) und dabei schon auf PC Level umstellen und dann in den Renderer (VMR9, EVR, etc.) der dann nix mehr machen muss und anschliessend RGB 4:4:4 in der GraKa eingestellt zum TV (der dann auf PC Level kalibriert ist). Das geht allerdings nur wenn Du kein DXVA verwendest...CUDA ist ok, oder halt reine Softwarelösung.
 
ich hätte da noch eine frage:

wir scheinen uns ja jetzt einig zu sein, das (digitale)tv-karten, keinen einfluß auf die bildqualität haben. sie müßen auch keine performaten berechnungen mehr ausführen, so wie das bei damaligen analog karten der fall war, wo besonders bei aufnahem, die cpu stark belastet wurde. deshalb wurden diese "full-featured-karten", ja auch mit einem hardware-mpg-chip versehen, um den prozessor zu entlasten.

was ich jetzt nicht verstehe ist, das es scheinbar immernoch einige exotische dvb-full-featured karten gibt, die immernoch einen hardwarechip onboard haben, obwohl dieser bei dvb doch eigentlich obsolet ist.
was für einen vorteil haben diese full-featured dvb-c und s karten dann eigentlich?
hab nochmal den link von gestern rausgekramt:)
diese karten meine ich: http://www.vdr-wiki.de/wiki/index.php/Full-featured-DVB-Karte

Gruß
g.m
 
Zuletzt bearbeitet:
Wobei wir vielleicht sagen sollten, dass das 4:2:0 Chroma Subsampling bei echtem Interlaced-Material letztlich irreversible Fehler (!= dem ohnehin zwangsweise stattgefundenem Informationsverlust) verursacht. Ein entsprechendes Interlaced-Signal mit Filmcontent ist bei vernünftigem Decoder dagegen unkritisch. Gerade im Bereich der Stanalone-Receiver gibt es allerdings leider immer noch reichlich Geräte, deren Decoder häßliche CUE verursachen. Das kann man nachträglich zwar noch mildern, aber natürlich nicht mehr beseitigen.

Welchen umstand meinst du genau?,
Das interlaced material in "bewegung" dazu führt das das jeweilige Halbbild auf ein Vollbild hochgerechnet wird (großartig was kombinieren kann man ja nicht wenn bei zwei zeitlich verschiedenen Halbbildern bewegung vorliegt). In dem fall wäre aber auch die zugrundeliegende Helligkeitsauflösung nur die hälfte, bei der Farbe dann halt nur 1/8.
Das problem bei meinem vergleich am PC, einmal mit ATi HD4670 und NV8600GT war ja das mit selben interlaced Material die ATI hier deutlich schlechter abschneidet. Bei den DVD`s handelte es sich um die PinkFloyd Pulse und
Genesis When in Rome 2007. Ich weiß eben nicht wie diese genau kodiert sind, Prinzipell gäbe es ja die möglichkeit, Top/Bottom Field, komplett autarke speicherung der halbbilder oder auch interlaced Frame Based(Progressive Frame based lass ich mal ausen vor ist mir bisher nicht begegnet auf dvd). Bei letzteren weiß ich aber eben nicht mehr inwiefern hier noch die Halbbilder komplett autark behandelt werden besonders halt die Farbinformationen. Bei Film Material auf DVD begegnete mir bisher immer Interlaced Frame Based kodierung, mal mit Progresive Flag oder mal ohne warum auch immer es vergessen wird, das ist mir auch nen rätsel wieso das sein muss, dat ist ja eigentlich kein aufwand den encoder anzuweisen das flag zu setzen. Die DCT Matrix soll wenn ich mich recht erinnere bei Interlaced Framebased der Progressiven Frame Based Variante gleichen? leider ist dat alles ne weile her, da müsste ich mein wissen wieder auffrischen.
Ich muss das ganze mal noch genau mit nem DVB schnippsel testen, die wenigen DVB schnipsel die ich mir bisher genauer ansah waren interlaced frame based. Jedoch ist mir dabei mit der ATI kein unschönes Chroma Upsampling aufgefallen, wobei ich das nochmal genau betrachten muss.

Bei den erwähnten DVDs ist es mir halt quasi sofort ins auge gestochen, das die ATI hier suboptimal ist. Okay durch die lichteffekte und Farbgebung bei Konzerten fällt das dann auch eher auf aber an irgendwas muss dies ja liegen ? eventuel Top/Bottom Field speicherrung??
Müsste ich alles mal noch genauer betarchten

Bei den angestesteten FilmDVD`s gab es da mi der ATI keine augenscheinlichen ausetzer, eine von den DVD`s weiß ich sicher ist interlaced Frame Based mit Progresive Flag.
 
Zuletzt bearbeitet:
Danke.
Ich glaub ich fang an zu begreifen.......

Aber jetzt mal unter uns zwei Betschwestern: madVR und Co ist Extrem High End, oder?

Bei Audio kenne ich mich recht gut aus, aber Video war schon immer ein bißchen schwarze Magie. Aber ich hab ja jetzt schon mal einen guten Anfang, und ein Jahr zum reinlesen. HD Beamer kommt frühestens Weihnachten 2010....
Bis dahin muß ich das können.
 
Welchen umstand meinst du genau?,
Das Problem ist, dass du zwei Fields mit "brutalem" Supsampling hast, die zeitlich nicht zueinandergehören und überdies ja auch noch ein unterschiedliches "Zeilenset" haben. Der Prozeß des Upsampling ist hier im Ergebnis deutlich bescheidener als bei Filmcontent im Interlacedsignal. Inwiefern man das nachher wirklich sieht - schwer zu sagen. Die wirklich schlechten Decoder haben sowieso grundsätzlich einen schweren CUE gehabt. Da ging eh alles "unter".

edit: Wobei ich mich jetzt nachträglich betrachtet, etwas fragen muß, ob meine Unterlagen da korrekt sind. Schließlich wird das Upsampling ja bei fieldbasierter Speicherung immer isoliert betrachtet, auch wenn z.B. eine 2:2 Kadenz auf der DVD oder im Broadcastsignal vorliegt. Insofern müßte man wohl eher grundsätzlich attestieren, dass YCbCr 4:2:0 für die fielbasierte Speicherung nicht ganz ideal ist, auch wenn die Auswirkungen, das muß man fairerweise sagen, schon eher in die theoretische Richtung gehen.

edit2: Gemäß hometheaterhifi wird ein vorhandes progressive Flag im Interlacedstrom für das Upsampling ausgewertet und somit in diesem Fall ein Field eben nicht isoliert betrachtet, insofern stimmten meine Unterlagen diesbezüglich also wohl doch.
http://www.hometheaterhifi.com/volume_8_2/dvd-benchmark-special-report-chroma-bug-4-2001.html

Gruß

Denis
 
Zuletzt bearbeitet:
Danke.
Ich glaub ich fang an zu begreifen.......

Bitte schön.

Aber jetzt mal unter uns zwei Betschwestern: madVR und Co ist Extrem High End, oder?

Jup ist es, aber wenn Du an dem Punkt angekommen bist wo Du sonst nichts, oder kaum noch was, zu optimieren hast dann machst Du Dir halt neue Probleme ;-) Die einen (siehe Sailor Moon) schaffen sich dann wieder externe Scaler an, die anderen fummeln dann wieder an der Software (wie ich). Wenn Du tausende von Euros in Deine Hardware (sprich Beamer, LS, Verstärker, Raumakustik, etc.) versenkt hast bist Du einfach auf der Suche nach dem *perfekten* Bild - geht mir jedenfalls so...
 
ich hätte da noch eine frage:

wir scheinen uns ja jetzt einig zu sein, das (digitale)tv-karten, keinen einfluß auf die bildqualität haben. sie müßen auch keine performaten berechnungen mehr ausführen, so wie das bei damaligen analog karten der fall war, wo besonders bei aufnahem, die cpu stark belastet wurde. deshalb wurden diese "full-featured-karten", ja auch mit einem hardware-mpg-chip versehen, um den prozessor zu entlasten.

was ich jetzt nicht verstehe ist, das es scheinbar immernoch einige exotische dvb-full-featured karten gibt, die immernoch einen hardwarechip onboard haben, obwohl dieser bei dvb doch eigentlich obsolet ist.
was für einen vorteil haben diese full-featured dvb-c und s karten dann eigentlich?
hab nochmal den link von gestern rausgekramt:)
diese karten meine ich: http://www.vdr-wiki.de/wiki/index.php/Full-featured-DVB-Karte

Die Analogen Karten hatten einen Encoder Chip drauf, um die CPU zu entlasten.

Die Full-Feature DVB Karten haben einen Decoder Chip drauf. Der ist sozusagen ein in Silizium gegossener MPEG2 Decoder. Dadurch übernimmt die TV Karte das was sonst der Codec beim Decodieren machen würde.
 
und wieder anderen ist schon lange klar, das diese ganze postprocessing bei gutem quellmaterial unötig ist sie und lassen es deshalb ganz sein.
ok, klar, kann man sich da ewig in highendspielereien vertiefen, nur gehen diese an den bedürfnissen von normalsterblichen vorbei.

ob jetzt irgendwelche theoretischen werte 100% korrekt sind, dreickesbildung, rechtecksabwinkelung zu faktor x und was weiss ich noch alles. all das macht doch für den normal sterblichen keinen sinn. der will einfach nur eine korrekte darstellungen haben und das erreicht er eben mit guten scalern im lcd/plasma + guten codecs auf htpc-seite.
der rest ist nur eine rein akademische, höchst-theoretische diskussion, die an den bedürfnissen von 99% aller konsumenten vorbei geht.
will jetzt aber kein faß aufmachen, da ich schon öfter an diesen punkt gelangt bin. gesagt muß es aber trotzdem werden:)
-------
thx für deine antwort Elgar. es scheint in der heutigen zeit aber so zu sein, das man diesen dekoder chip ja gar nicht mehr benötigt oder sehe ich da etwas falsch?


Gruß
g.m
 
Zuletzt bearbeitet:
und wieder anderen ist schon lange klar, das diese ganze postprocessing bei gutem quellmaterial [edit]für sie (selbst)[/edit] unötig ist sie und lassen es deshalb ganz sein
Damit könnte ich mich anfreunden, mit der All-Aussage danach (99%...) allerdings nicht. Das muß dann von meiner Seite aus gesagt werden :-).

Gruß

Denis
 
Damit könnte ich mich anfreunden, mit der All-Aussage danach (99%...) allerdings nicht. Das muß dann von meiner Seite aus gesagt werden :-).

Gruß

Denis

war ja nicht böse gemeint. es ist jedoch so, das die meisten menschen durchaus wert auf gute bildqualität legen, dazu zähle ich mich ja auch.
wenn ich also etwas zu beanstanden hätte, würde ich es vorbringen. hier geht es aber eindeutig um highend-postprocessing das außer einen paar geeks (nicht böse gemeint), niemandem auffällt.
klar kann man zum allem eine wissenschaft drumrumbauen. ich weiss das sehr gut, das ich selbst mal hi-fi-purist war:)
nur ist das eben nur für einen sehr eingeschränkten kreis interessant, der rest legt werd auf gute darstellung. ob jetzt etwas in der theorie so oder so sein sollte, das es perfekt ist, nimmt eben kaum jemand war.
wenn das bild aber schlecht ist, wird gemosert. so anspruchslos sind die leute dann doch nicht:)

will damit sagen:
wenn ich also ein konkretes (und kein theoretisches das ich sowieso nicht wahrnehme) darstellungsproblem hätte, würde ich mich sollange damit auseinandersetzen, bis es gelöst ist, auch wenn ich mich dazu in diesen akademichen postprocessing-kram einarbeiten müßte.
nur ist es eben nicht so. der scaler in meinem lcd macht einen guten job, ebenso wie die von mir verwendeten codecs.
was soll ich da also verschlimmbesseren, nur das ein dreieck um den faktor x propotional zum chroma verhältnix zu y steht?:) (oder was auch immer man sich da gerade zusammen schustert)


Gruß
g.m
 
Zuletzt bearbeitet:
und wieder anderen ist schon lange klar, das diese ganze postprocessing bei gutem quellmaterial unötig ist sie und lassen es deshalb ganz sein.

Chromaupsampling ist kein Postprocessing im Sinne von den ganzen Avisynth Scripten oder ähnlichem sondern eine 100% Notwendigkeit, weil Du ohne Chromaupsampling kein Bild auf Deinem Plasma hättest. Um das noch einmal ganz klar zu machen - auf Blu-rays (DVDs, DVB-S, etc.) liegt *nicht* 1:1 ein Bild vor welches Du auf einem Anzeigegerät wiedergeben kannst, sondern es muss *immer* irgendetwas interpoliert/scaliert/umgerechnet werden ! Die Frage ist halt nur wieviel Einfluss darauf willst und kannst Du nehmen.

ok, klar, kann man sich da ewig in highendspielereien vertiefen, nur gehen diese an den bedürfnissen von normalsterblichen vorbei.

Da gebe ich Dir Recht, der Normalsterbliche fährt seinen HTPC aber auch mit 1024x768 Pixel (auf einem FullHD Plasma), weil sonst die Schrift so klein ist... gut das ich kein Normalsterblicher bin ;-)

ob jetzt irgendwelche theoretischen werte 100% korrekt sind, dreickesbildung, rechtecksabwinkelung zu faktor x und was weiss ich noch alles. all das macht doch für den normal sterblichen keinen sinn. der will einfach nur eine korrekte darstellungen haben und das erreicht er eben mit guten scalern im lcd/plasma + guten codecs auf htpc-seite.

Nochmal, mir gehts nur um die 100% korrekte Wiedergabe des Quellmaterials und einfach ein paar Codecs + Scaler im Plasma sind eben nicht nur schlechter (auch sichtbar), sondern in einigen Kombinationen schlicht weg falsch ! Aber dem Normalsterblichen sind auch Eierköpfe egal weil er ja 4:3 Bilder einfach aufs ganze 16:9 Panel streckt ...

der rest ist nur eine rein akademische, höchst-theoretische diskussion, die an den bedürfnissen von 99% aller konsumenten vorbei geht.
will jetzt aber kein faß aufmachen, da ich schon öfter an diesen punkt gelangt bin. gesagt muß es aber trotzdem werden:)

Jup das geht 99% der Konsumenten am Allerwertesten vorbei, ist aber halt trotzdem fehlerbehaftet oder sogar falsch, was da oft passiert - wie gut das ich kein Joe-Six-Pack bin.

Ich stimme Dir natürlich damit überein das jeder selber entscheiden muss wieviel Zeit er in dieses Thema investiert - einige haben ein paar Geranien auf dem Balkon, andere legen sich eine eigene Parklandschaft an, einige fahren eine 15 Jahre alte Rostlaube nach dem Motto "ich muss ja nur von A nach B", andere schrauben jedes Wochenende an ihrem englischen 60er Jahre Roadster - jeder nach seiner façon.
 
thx für deine antwort Elgar. es scheint in der heutigen zeit aber so zu sein, das man diesen dekoder chip ja gar nicht mehr benötigt oder sehe ich da etwas falsch?

Wenn man nur eine seeehr leistungsschwache CPU hätte, könnte man durchaus so einen Decoder Chip noch gebrauchen, damit die CPU entlastet wird. Das sollte heutzutage aber eigentlich kein Problem mehr sein, da reicht dann ein Software-Decoder aus.
 
@Caspar666

du habt mich scheinbar falsch verstanden.
ich beschäftige mich sehr wohl mit der hdtv-norm und lege auch wert darauf das diese eingehalten wird. ich dulde also weder eierköpfe noch sonstige inkorrektheiten. moment habe ich ein 720p-gerät und diese norm auch eingehalten und gut dargestellt. in meinem fall also 1360x760. ich lege großen wert darauf das die spec eingehalten wird und kenne mich damit auch aus. ich bin nur keiner von diesen highend-fetischisten, die sich in akademiche diskussion ohne praxisbezug versteifen.
anderst gesagt: für mich ist wichtig was rauskommt und nicht wie etwas rein theoretisch sein müßte um 100% korrekt zu sein.
demnächst lege ich mir wohl einen full-hd lcd zu und auch da werde ich pinklichst darauf achten, das die spezifizierte auflösung von 1920x1080 nicht nur eingehalten sondern auch korrekt, je nach film dargestellt wird.

du mußt mir also nicht unterstellen, das ich weder einen schimmer von den spezifizierten hd-auflösungen noch von korrekter apsekt ratio habe.
ich bin eben kein dau, sondern nur kein highend-geek. deshalb lasse ich mich von dir auch nicht in diese ecke drängen.

das mit dem chroma war übrigens auch nicht ernst gemeint, ich hatte nur nach einem abstrusen beispiel gesucht um nahezulegen, wie dieses highend-postprocessing an den bedürfnissen der meisten normalos (nicht daus! das ist ein großer unterschied) vorbei geht.
also bitte mal nicht missverstehen.

@Elgar
wie schwach müßte die cpu sein um einen solchen dekoder-chip zu brauchen?:)

Gruß
g.m
 
Zuletzt bearbeitet:
Das Problem ist, dass du zwei Fields mit "brutalem" Supsampling hast, die zeitlich nicht zueinandergehören und überdies ja auch noch ein unterschiedliches "Zeilenset" haben. Der Prozeß des Upsampling ist hier im Ergebnis deutlich bescheidener als bei Filmcontent im Interlacedsignal. Inwiefern man das nachher wirklich sieht - schwer zu sagen. Die wirklich schlechten Decoder haben sowieso grundsätzlich einen schweren CUE gehabt. Da ging eh alles "unter".

edit: Wobei ich mich jetzt nachträglich betrachtet, etwas fragen muß, ob meine Unterlagen da korrekt sind. Schließlich wird das Upsampling ja bei fieldbasierter Speicherung immer isoliert betrachtet, auch wenn z.B. eine 2:2 Kadenz auf der DVD oder im Broadcastsignal vorliegt. Insofern müßte man wohl eher grundsätzlich attestieren, dass YCbCr 4:2:0 für die fielbasierte Speicherung nicht ganz ideal ist, auch wenn die Auswirkungen, das muß man fairerweise sagen, schon eher in die theoretische Richtung gehen.

edit2: Gemäß hometheaterhifi wird ein vorhandes progressive Flag im Interlacedstrom für das Upsampling ausgewertet und somit in diesem Fall ein Field eben nicht isoliert betrachtet, insofern stimmten meine Unterlagen diesbezüglich also wohl doch.
http://www.hometheaterhifi.com/volume_8_2/dvd-benchmark-special-report-chroma-bug-4-2001.html

Gruß

Denis


Danke für den Link, ich habe ihn eben mal überflogen und werde ihn mir mal genau zu gemüte führen.
Mein Problem hier mit der ATI Graka ist im grunde nicht der Cue, das war mir auch schon klar, der Cue ist mir eigentlich nur bekannt bei Filmmaterial welches entsprechend Intelaced Framebased gespeichert wurde jedoch beim Chromaupsampling die Zeilen verrechnet wurden welche eigentlich bei der Fieldbasierten speicherung richtig wären, nicht aber beim Framebased da zählen andere zeilenpaare.


Mein Problem fängt wohl bei 4:2:0 interlaced fundamentaly broken an. Das erste bild direkt unter dem anfang des kapitel (das mit der frau) dort entspricht so ziemlich das was ati bei meinen Konzert DVD`S liefert. Das muss ich mir mal in ruhe zu gemüte führen. Fakt bleibt aber das die NV8600GT damit klar kommt und deutlich besser in solchen situationen aussieht und auch an meinem Loptop mit dem Intel 4500 konnte ich dies noch nicht nachvollziehen kann. Gut der lappi ist klein der kontrast eher mieß, den werde ich nochmal an den LCD werfen.. Problematisch wirds ja dann wenn man näher dran ist, bei 32" auf etwa 2m-2,5m fällt es auch gar nicht mal mehr so auf, da müssen es schon extremere szenen sein.

Komischerweise, auch auf DVB gibt es ja genug studio/video Material so viel hab ich mit der ATi noch nicht getestet, bisher viel es mir hier noch nicht so augenscheinlich auf (auser das ATI noch andere Probs hat aber lassen wir das, berauscht bin ich jedoch nicht von der karte incl treiber). Hab hier noch (in intresse an einem Test) noch aufnahmen von ARD vom grand prix am WE und noch ein paar andere sachen wie Sport. muss ich alles in ruhe nochmal angehen
 
Zuletzt bearbeitet:
@Caspar666

du habt mich scheinbar falsch verstanden.
ich beschäftige mich sehr wohl mit der hdtv-norm und lege auch wert darauf das diese eingehalten wird. ich dulde also weder eierköpfe noch sonstige inkorrektheiten. moment habe ich ein 720p-gerät und diese norm auch eingehalten und gut dargestellt. in meinem fall also 1360x760. ich lege großen wert darauf das die spec eingehalten wird und kenne mich damit auch aus. ich bin nur keiner von diesen highend-fetischisten, die sich in akademiche diskussion ohne praxisbezug versteifen.
anderst gesagt: für mich ist wichtig was rauskommt und nicht wie etwas rein theoretisch sein müßte um 100% korrekt zu sein.
demnächst lege ich mir wohl einen full-hd lcd zu und auch da werde ich pinklichst darauf achten, das die spezifizierte auflösung von 1920x1080 nicht nur eingehalten sondern auch korrekt, je nach film dargestellt wird.

du mußt mir also nicht unterstellen, das ich weder einen schimmer von den spezifizierten hd-auflösungen noch von korrekter apsekt ratio habe.
ich bin eben kein dau, sondern nur kein highend-geek. deshalb lasse ich mich von dir auch nicht in diese ecke drängen.

das mit dem chroma war übrigens auch nicht ernst gemeint, ich hatte nur nach einem abstrusen beispiel gesucht um nahezulegen, wie dieses highend-postprocessing an den bedürfnissen der meisten normalos (nicht daus! das ist ein großer unterschied) vorbei geht.
also bitte mal nicht missverstehen.

Sorry g.m ich wollte Dich nicht in die Super Dau Ecke rücken, aber imho sind 99% der Plasma/LCD Besitzer solche Daus... Du bist dann in der Grauzone dazwischen ok ? ;-) Wenn ich durch einen MM/Saturn/etc. streife, dann sehe ich jedes Mal total entstellte Bilder, weil dort es selbst die Mitarbeiter nicht hinbekommen... was soll ich dann von den Kunden dort halten ? Ich glaube nciht das auch nur 1% sich im Internet, o.ä. schlau macht... Du liesst hier mit und auch wenn es für Dich zu sehr um perfektion geht ist doch auch ok, nur 99% der Plasma User lesen nciht hier mit.
 
ohja, da gebe ich dir vollkommen recht. diese an mehrfach verteilern, völlig verstellten geräte, lassen es mir auch immer kalt den rücken runterlaufen.
oder all die genossen, die sich einen lcd/plasma kaufen und noch nichtmal merken wie mies das tv-bild dank dem eingebauten analog-tuner ist.
dvb-c/s? was ist das denn? ja solche leute kenne ich auch zu hauf.
das sind eben die besprochenen daus, da kann ich absolut nicht widersprechen:)

bevor man sich etwas kauft, sollte man sich generell informieren. das tun die meisten aber nicht. auch in diesem punkt hast du leider recht.

ich sehe mich selbst, als fortgeschrittenen enduser, der durchaus so seine ansprüche hat:)
also nichts für ungut.

Gruß
g.m
 
Zuletzt bearbeitet:
Super Diskussion und gute Informationen!!! Da sag mal einer man kann im Netz nichts richtiges lernen.

Vielleicht sollten wir mal, zur Vermeidung zukünftiger "Empfindlichkeiten" uns auf folgende User Classes einigen:
Consumer, 90% nimmt das was Werbung und MM/Saturn vorgeben und ist happy.
Informed Consumer, 9% informiert sich und weiss im Großen und Ganzen was er tut.
High End Consumer, 1% ist erst glücklich wenn es 100% so ist wie es sein soll.

Zugehörigkeit zu der einen oder anderen Gruppe ist nich herabsetzend sondern lediglich ein Definition von Prioritäten.
 
Also ich hab madVR schon seit einigen Wochen zusammmen mit ffdshow im Einsatz, große Veränderungen, wie nach dem einschalten von AviSysnth Skripten sehe ich aber nicht.

Aber ich glaube ich mache bei der Benutzung von madVR noch irgendetwas falsch
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh