Fullhd-Mediapc schlechtes bild

kann ich dir nicht sagen - da musst du mal dennis fragen (sailormoon)..

vielleicht hängt das damit zusammen, was der HDTV am HDMI-eingang erwartet.. bei mir ist RGB mit vollem kontrastumfang erträglich, YCbCr gut und RGB mit begrenztem kontrastumfang milchig/lausig..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
du hast identische bilder gepostet.

Also ich sehe einen deutlichen Unterschied, die erste Reihe von bildern hat einen leichten Gelb bzw rotstich, das fällt auf wenn du das Grau miteinander vergleichst. Ist der erstmal weg sieht das Schwarz besser aus. In den dunklen Bilder siehst du ausserdem dass in der 2. Reihe etwas Schattendetails verloren gehen, ist aber nicht der Rede wert, bei gecrushtem Schwarz würdest du nix erkennen.

ansonsten steige ich grad nicht dran lang..

du kannst rechnerseitig RGB mit und ohne tonwertspreizung (begrenzter/voller dynamikbereich), sowie YCbCr für den HDMI-ausgang einstellen.. (quasi drei möglichkeiten, abseits der regler) aber das reicht bei deinem HDTV oder beamer nicht und du brauchst noch ffdshow für farbkorrekturen um ein "gutes" bild zu bekommen??

Wenn das alles so perfekt sein würde frage ich mich warum sich so viele Leute darüber aufregen und Gammut Korrekturen in Scriptform ( Cr3dlut ) entwickeln um sie dann per FFD Show bzw. Avisynth anzuwenden. Ich gucke über nen Monitor der per DVI angeschlossen ist, demnächst wenn ich umgezogen bin und es Sinn macht nen Beamer oder grossen TV ab 50" aufzustellen wrde ich mir auch einen kaufen. Bei Beamern sieht es da aufgrund von mehr Einstellmöglichkeiten besser aus ein Gerät zu finden das die D65 Norm erfüllen kann. Momentan ist ein grosser TV/Beamer für mein wG Zimmer eh überdimensioniert, ein 40" kommt nicht in Frage da er dann in meiner nächsten Wohnung zu klein sein würde.

Also Monitor = Tonwertspreizung auf 0 -255, eh standard bzw. erforderlich da der Monitor nix anderes als PC Level erwartet. Alle Bilder sind dementsprechend mit eingestellten RGB full entstanden. Da bleibt mir nix anderes übrig als in FFD Show je nach Profil zu korrigieren, will mir ja nicht die Darstellung von Games bzw. dem Desktop über die Nvidia Einstellungen versauen. Bei nem TV der keine erweiterte Farbraum bzw. PC level Option besitzt kannste NV erst recht knicken, die RGB limited Ausgabe ist einfach fehlerhaft verbuggt. Ein Kollege ist deswegen auch wieder auf Ati gewechselt da es auf seinen Geräten ohne srgb oder PC Level einfach mehr als kacke aussah.
 
Zuletzt bearbeitet:
Wenn das alles so perfekt sein würde frage ich mich warum sich so viele Leute darüber aufregen

naja, viele leute reden sich halt gerne etwas ein, oder geben unreflektiert weiter, was sie von anderen gehört haben. ich sehe auf den bildern auch keinen unterschied. ich bin aber ja auch noch nüchtern. ich schaue sie mir später nochmal an, wenn sich dieser zustand geändert hat. vielleicht fällt mir ja dann was auf:)

ansonsten ist es kein indikator das sich viele leute über etwas aufregen. das macht noch keine behauptung zum objektiven faktum. das solltest du aber eigentlich wissen. ich glaube auch nicht an diesen angeblichen bug.

mach dir aber nichts daraus. ich glaube ja noch nichtmal an den angeblichen polarcat-interlace-amd780g-bug:)
ich glaube nur an dinge die ich selbst verfizieren kann. alles andere hat für mich eben keinen docht.

Gruß
g.m
 
Zuletzt bearbeitet:
diesmal sind wifis bilder nicht identisch ^^" bei dme einen bild ist das kleid der frau zb eher braun schwarz und beim andern richtig schwarz..

aber das ist die sache die mich an nvidia stört...
bei der ati stell ich die grafikkarte auf erweiterte farbausgabe... den tv auch .. leg ne bluray ein zb apocalypto.. vllt kennt jemand die szene wo die frau in dem loch hockt und nach oben guckt.. und alles was schwarz sein soll ist auch wirklich pech schwarz... und dazu nen super kontrast..

ohne bei jedem film die regler einstellen zu müssen.. das hat man bei nv halt nicht so leicht..

bei pitch black merkt man sowas noch deutlicher
 
naja, viele leute reden sich halt gerne etwas ein, oder geben unreflektiert weiter, was sie von anderen gehört haben. ich sehe auf den bildern auch keinen unterschied. ich bin aber ja auch noch nüchtern. ich schaue sie mir später nochmal an, wenn sich dieser zustand geändert hat. vielleicht fällt mir ja dann was auf:)

ansonsten ist es kein indikator das sich viele leute über etwas aufregen. das macht noch keine behauptung zum objektiven faktum. das solltest du aber eigentlich wissen. ich glaube auch nicht an diesen angeblichen bug.

Gruß
g.m

Du siehst ja noch nichmal nen unterschied zwischen HD und DVD, bzw letzteres stellt dich schon hoch zufrieden, da wundert es mich nicht dass dir so Kleinigkeiten wie korrekte Farbwiedergabe egal sind. So nach dem Motto wenn rot rot und blau blau aussieht passt das schon...
 
vllt sieht man nen unterschied halt nicht so wenn der tv zu klein ist und man noch zu weit weg sitzt *g*
 
sorry, das hört sich für mich so spekulativ an, das ich fast von selbst-sugestion ausgehe. das ein objektiver bug existiert, ist nicht verfiziert.
bilder posten kann ürbrigens jeder. da man nicht ausschliesen kann, das schon beim anlegen der bilder etwas verfälscht wird, hält sich deren ausagekraft für mich in engen grenzen.
jedoch rede ich niemand ein, an was er zu glauben hat und an was nicht:)
wenn jemand also umbediengt an einen bug glauben möchte, hat er meinen segen:) ich selbst tue es aber nicht.

Gruß
g.m

---------- Beitrag hinzugefügt um 17:02 ---------- Vorheriger Beitrag war um 17:00 ----------

Du siehst ja noch nichmal nen unterschied zwischen HD und DVD, bzw letzteres stellt dich schon hoch zufrieden, da wundert es mich nicht dass dir so Kleinigkeiten wie korrekte Farbwiedergabe egal sind. So nach dem Motto wenn rot rot und blau blau aussieht passt das schon...

wie kommst du auf dieses schmalle brett? natürlich sehe ich da einen deutlichen unterschied. das einzige was ich nicht einsehe, ist, weshalb man bei gutem-dvd-material, diese sinnlosen bildverbesserer wie avysynth braucht. das war auch meine einzige aussage. du kannst mir ja gerne mal den teil posten, wo ich einen unterschied zwischen einer bluray und einer dvd bestreite.
sorry, wifi, aber der war mal wieder sehr schwach...

Gruß
g.m
 
Wenn das alles so perfekt sein würde frage ich mich warum sich so viele Leute darüber aufregen und Gammut Korrekturen in Scriptform ( Cr3dlut ) entwickeln um sie dann per FFD Show bzw. Avisynth anzuwenden.

wenn sich viele darüber aufregen, hat das sicher mehr als nur eine ursache.. ich vermute derer drei bis vier..

1. das was GM geschrieben hat
2. jeder verwendet ein anderes gerät
3. nicht jeder kennt die optimierungsoptionen im treiber oder weiss überhaupt worum es geht
4. was mir grad wieder entfallen ist

am gewichtigsten erscheint mir punkt 2. wie die kette bei mir läuft, habe ich hier und auch an anderen stellen schon hinreichend heruntergebetet. ich verbiege einfach kein YV12 nach RGB.. ich lasse es, wie es ist und gebe es so aus.

vllt sieht man nen unterschied halt nicht so wenn der tv zu klein ist und man noch zu weit weg sitzt *g*

wenn schwarz eher grau ist, sieht man das auf jeder diagonale.

btw,
eigentlich erkennt man sehr schön, dass es nur am endgerät liegt, wenn man sich z.b. mal ne konsole schnappt und die verschiedenen verbindungsmethoden subjektiv vergleicht..


Komponente/HDMI YUV

dSub/VGA RGB

meckern oder aufregen bringt wenig und wenn dann sollte man auf seinen fernseher oder bildschirm schimpfen, als auf einen IHV. in meinen XBoxen sind übrigens ATI-grafikchips :-) das nur mal am rande..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
das einzige was ich nicht einsehe, ist, weshalb man bei gutem-dvd-material, diese sinnlosen bildverbesserer wie avysynth braucht

Eben weil du es nicht brauchst aber andere schon die evtl. etwas näher vor ihrem Screen sitzen ;)

Obwohl Farben auch auf 10m kacke aussehen wenn es nunmal so ist. Wenn du noch nie ein perfekt eingestelltes Bild gesehen hast oder dich an deinen Screen bzw. die wiedergabe bei dir gewöhnt hast dann sei doch froh. Aber hör auf immer zu pauschalisieren, macht man dass selbe mit dir fühlst du dich sofort angegriffen...
 
die "perfekte" einstellung ist schon dann wieder für den anus, wenn du an deinem HDTV ein farb/helligkeits -preset änderst und/oder einen der möglichen stromsparmodi zuschaltest.. bei samsung kommt oft zu den verschiedenen presets und sparmodi noch ein spielmodus dazu..

an fernsehern schaltet man nunmal häufiger rum, als an schreibtisch-monitoren bzw. -displays.

und wenn man es nicht selbst tut, macht es der nachwuchs oder der lebenspartner..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
@wifi

Eben weil du es nicht brauchst aber andere schon die evtl. etwas näher vor ihrem Screen sitzen

klar, wenn man seinen bildschirm schon mit der nase berühren kann, hört man wahrscheinlich auch die mäuse nuscheln:) alle die eine normale sitzenfernung zu ihrem screen einhalten, haben diese hausgemachten probleme wohl nicht...

Obwohl Farben auch auf 10m kacke aussehen wenn es nunmal so ist.

klar, man kann sich auch viel einreden...

Wenn du noch nie ein perfekt eingestelltes Bild gesehen hast

halt mich fest, sonst muß ich laut loslachen. du meinst du hättest mit deinen avsynth-gedöhns ein perfektes bild und bei allen anderen wäre das nicht so? die haben also alle ein schlechtes bild nur weil sie dieses gekrachsel nicht benutzen?
komm lass stecken, diese aussage entzieht sich jeder vernunft (die ist aber bei dir sowieso nicht sonderlich ausgeprägt, was ich ja schon öfter feststellen mußte).

Aber hör auf immer zu pauschalisieren, macht man dass selbe mit dir fühlst du dich sofort angegriffen...

stichworte: ich würde den unterschied zwischen einer dvd und bluray bestreiten, "perfektes bild" usw.
klar, so etwas interpretiere ich als angriff und das war von dir wohl auch so gedacht. wenn du das leugnest, bist du eben nicht ehrlich.
in diesem sinne: mahlzeit und peace:)

Gruß
g.m
 
Zuletzt bearbeitet:
@ Tobi

Mein Monitor ist was den Desktop bzw. Testbilder angeht farblich auf D65 kalibriert, mich nervt nur dass die gleiche Farbpalette als Videofile anders aussieht wenn man nix tweakt, genau das ist worum es mir eigentlich geht. Am Monitor bzw. Fernseher sollte man nix verstellen wenn er schon einmal gut eingestellt wurde, eher am jeweiligen Zuspieler und da ich halt nen PC für jedes Material einsetze finde ich es mit FFD Show eben angenehmer da ich so für jedes Material ob SD oder HD, skaliert oder unskaliert passende Settings zuordnen kann. Ist der Beamer oder TV erst mal da geht das eh wieder von vorne los...
 
Zuletzt bearbeitet:
das ist ja noch halbwegs nachvollziehbar und verständlich.
deswegen aber gleich von einem nvidia-bug zu sprechen, scheint mir doch etwas hochgegriffen zu sein.

Gruß
g.m
 
@wifi

ich kann verstehen was du meinst und ich kann mir auch deinen rahmenbedingungen vorstellen. nur ist das halt im wohnzimmer nicht immer genauso praktizierbar und da entscheidet i.d.R. der subjektive eindruck und nicht das colorimeter, was für den grad angedachten verwendungszweck (kabel-TV, zuspieler über scart, zuspieler über VGA, komponente oder HDMI) am ansprechendsten aussieht.

auf das schwarzwert-geraffel sind wir ja jetzt schon hinreichend eingegangen und ich denke es ist auch klar geworden, dass die bezeichnung "bug" völlig fehl am platz ist.

HDTVs haben (ggü. PC-bildschirmen) die möglichkeit zwischen reddish und yellowish umzuschalten (je nachdem,ob der TV für den westlichen oder den östlichen asiatischen raum gedacht ist), wenn evtl. hauttöne gelbstichig sind.. otto normal hat aber keine möglichkeit das gerät zu kalibrieren. was nachvollziehbar ist, wenn man sich mal klarmacht, wieviele zuspieler respektive verschiedene unterschiedlichste quellen am HDTV wiedergegeben werden. quellen, die oft gar keine anpassung der level zulassen.

man kann sich also nur daran orientieren, welches preset zu welcher quelle und situation passt und mit welcher einstellung das schwarz auch wirklich schwarz ist. alles andere ist im alltag einfach nicht praktikabel.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
quellen hängt bei mir genau eine am hdtv.. der htpc ;P
vor allem kann man ja im tv verschiedene profile abspeichern.. und das gleich der passenden quelle zuordnen.. worfür hat man mittlerweile 4-6+ eingänge am tv..
 
jede meiner drei xboxen kann völlig unterschiedliche presets erfordern, je nachdem auf welchem weg sie mit dem HDTV verbunden sind. dazu gesellen sich dann noch ein receiver, ein VHS-recorder und zwei rechner.. *grmpf* und natürlich das analoge kabel-TV.

wir sollten die kirche im dorf lassen - die wenigsten HDTV-käufer haben nur einen HTPC dranhängen.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
dann stellst halt jede einzeln ein?
von mir aus die eine auf scart, die andere auf vga , die dritte auf dvi oder wa die halt haben..
und bei jedem eingang speicherst das passende profil dazu ab..

ist ja kein problem ^^"
 
das ist ja noch halbwegs nachvollziehbar und verständlich.
deswegen aber gleich von einem nvidia-bug zu sprechen, scheint mir doch etwas hochgegriffen zu sein.

Gruß
g.m

Der Nvidia bug betrifft nur die limited RGB Wiedergabe. also Videolevel ( das was alle Standalone Geräte standardmäßig können ), das gibts auch noch nicht so lange bei NV, die Option wurde erst Mitte letzten Jahres eingeführt.

Würde die Option funktionieren könnte man schnurstracks jedes Videomaterial ( welches immer 16 - 235 rgb limited ist ) in RGB limited ausgeben und sich so eine Spreizung im Decoder oder Graka auf PC Level ersparen, denn das verfälscht die Farben. Darum und nur darum geht es.

HDTVs haben (ggü. PC-bildschirmen) die möglichkeit zwischen reddish und yellowish umzuschalten (je nachdem,ob der TV für den westlichen oder den östlichen asiatischen raum gedacht ist)

Kann meinen Monitor auch auf 7500 oder 9500k stellen, das ist das selbe wie die verschiedenen Modi am TV nur dass sie dort Warm1, Warm 2, etc. heissen wenn ich richtig informiert bin und je nachdem zb. beim Game Mode Bildverbesserer nicht zugänglich machen.
 
Zuletzt bearbeitet:
dann stellst halt jede einzeln ein?
von mir aus die eine auf scart, die andere auf vga , die dritte auf dvi oder wa die halt haben..
und bei jedem eingang speicherst das passende profil dazu ab..

ist ja kein problem ^^"
 
natürlich, wir haben unsere HDTV (tipp: meiner ist aus 2006) ja auch alle erst seit gestern und falls die presets des gerätes nicht reichen, kaufen wir einen neuen TV und können dann noch mehr abspeichern..

was nehmt ihr für diesen realitätsverlust?? ich meine die frage sogar ernst! man kann doch nicht durch die forenwelt geistern und davon ausgehen, dass alles, was man von zuhause kennt auch bei anderen leuten und deren technik park passt oder zutrifft.. wie niedrig ist denn da bitteschön der tellerrand.. oder wie hoch..??

Kann meinen Monitor auch auf 7500 oder 9500k stellen, das ist das selbe wie die verschiedenen Modi am TV nur dass sie dort Warm1, Warm 2, etc. heissen wenn ich richtig informiert bin und je nachdem zb. beim Game Mode Bildverbesserer nicht zugänglich machen.

nein, das ist nicht das gleiche; die farbtemperatur (kalt1+2, normal, warm1+2) wird separat über für jedermann zugängliche bildschirmmenus geregelt.
das color-management für die hauttöne findet man nur im service-menu.

red.jpg

yellow.jpg



(..)

mfg
tobi
 
Zuletzt bearbeitet:
Die neueren TV´s die ich mir bis jetzt bei Händlern angeguckt habe hatten alle diese Farbtemp Optionen, zb. Warm, Kalt usw.

Bei fast allen neueren TV´s wird empfohlen die Farbtemp als Ausgangsbasis zu nehmen die am ehesten 6500k entspricht, meistens wird da Warm2 bei den TV´s genannt, von daher ging ich davon aus das es in etwa dasselbe ist.
 
wenn ins service menü gehst hast du aber diese optionen trotzdem.
nennt sich bei samsung dann yellow , blue , green Gain.


bei nem 3 jahren alten tv gerät hast du wahrscheinlich eh nicht die bildqualität das es auf die ausgabe qualität der grafikkarte ankommt ^^
wir sind hier halt im hardware luxx deswegen setz ich halt mal ne gewisse hardware vorraus ^^"

red ja auch nicht im crysis thread über ne gf fx 5600
 
Zuletzt bearbeitet:
was nehmt ihr für diesen realitätsverlust?? ich meine die frage sogar ernst! man kann doch nicht durch die forenwelt geistern und davon ausgehen, dass alles, was man von zuhause kennt auch bei anderen leuten und deren technik park passt oder zutrifft.. wie niedrig ist denn da bitteschön der tellerrand.. oder wie hoch..??
es ist bekannt das ich nun wirklich nicht immer mit tobi einer meinung bin, aber wo er recht hat, hat er eben recht.
den abschnitt unterschreibe ich.

man kann hier höchstens schreiben, das einem subjektiv die farbdarstellung von nvidia nicht gefällt, aber doch nicht generell von einem bug sprechen.
soll doch jeder seinen farbraum so anpassen das er/sie damit glücklich ist. das perfekte bild gibt es doch sowieso nicht!
da hat jeder seine individualisierte vorstellung davon.

Gruß
g.m
 
Zuletzt bearbeitet:
mit den farben habe ich zwar ein problem. die passen leider nicht mit meinem hauptrechner(eingestellt mit spyder) überein aber das wird sich ändern wenn ich mir einen spyder wieder ausleihe. dann sollten hoffentlich die farben wieder passen. ich hab eher das problem das das bild zu wenig details wieder gibt.
das bild sieht irgendwie unscharf aus.

oder sagen wir mal so. wenn man ne bd nimmt und ein 720p file sieht man keinen unterschied. vorher mit dem wd war das bd bild hammer gestochen scharf und klar. jetzt ist es irgendwie weicher und mit deutlich weniger details. ich konnte auch letzte nacht nicht rausfinden woran das liegen kann.

ich geh mal davon aus das es bei onboardlösungen halt einfach die maximale qualität ist da man immer wieder ließt das die onboardlösungen nicht mit zusätzlichen karten vergleichen kann. ob das so stimmt kann ich halt nicht behaupten. tatsache ist das die quali über den wd im direkten vergleich einfach deutlich und ich meine deutlich besser ist.

kann auch sein das es nur einstellungs sache ist aber ich habe mal alle tuts im netz durchprobiert die ich so finden konnte.

und nächstes problem. wenn ich im nv treiber 24p einstelle laufen alle files ruckelfrei und sauber. allerdings sind normale files also nicht 24frames files nicht mehr schaubar. der ton läuft asyncron zu dem ruckelfreien bild mit. das ist wenn ich über mpc schau.

wenn ich allerdings bei gleichen einstellungen einfach vlc benutze läufts ohne versetzte tonspur...
scheint wohl ein prob mit einem codec zu sein, kein plan was ich da jetzt noch ausprobieren soll. hab echt alle möglichkeiten durchprobiert. auch die 25hz tonanpassung im splitter hat nicht geholfen.

jemand ne idee?
 
Zuletzt bearbeitet:
wenn ins service menü gehst hast du aber diese optionen trotzdem.
nennt sich bei samsung dann yellow , blue , green Gain.


bei nem 3 jahren alten tv gerät hast du wahrscheinlich eh nicht die bildqualität das es auf die ausgabe qualität der grafikkarte ankommt ^^
wir sind hier halt im hardware luxx deswegen setz ich halt mal ne gewisse hardware vorraus ^^"

red ja auch nicht im crysis thread über ne gf fx 5600

selbst gestandene redakteure, die tagtäglich nichts anderes machen, als fernseher zu testen und artikel zu schreiben, kaufen sich nicht alle 2 jahre ein neues gerät.. ist eigentlich aus verschiedenen gründen nachvollziehbar.

wir sollten den thread umbenennen in allgemeinen quatschthread über gott und die welt..


(..)

mfg
tobi
 
Würde die Option funktionieren könnte man schnurstracks jedes Videomaterial ( welches immer 16 - 235 rgb limited ist ) in RGB limited ausgeben und sich so eine Spreizung im Decoder oder Graka auf PC Level ersparen, denn das verfälscht die Farben
In RGB liegt im Digitalvideobereich zunächst nichts vor. Wir haben es mit YCbCr (4:2:0) zu tun. Das bedingt allerdings per Definition immer Videolevel. Problematisch an einer skalierten Ausgabe in YCbCr ist der Umstand, dass viel TVs keine Wahl der Matrix zur Umwandlung nach RGB erlauben, was dann i.d.R. bei SD-Material, ohne Anpassung, zu (nicht extrem dramatischen, aber sichtbaren) Farbfehlern führt. Hier sollte man Sorge treffen, dass die Werte so angepaßt werden, dass der TV die "falsche" Matrix (für Rec. 709) nutzen kann. Da gibt es auch noch ein paar andere Dinge, die ich überprüfenswert fände, allerdings kann ich da jetzt nur Impulse geben. Ich selbst nutze keinen HTPC, kann mich zeitlich derzeit auch nicht damit beschäftigen - komme über eine theoretische Abhandlung daher nicht hinaus.

Eine Tonwertspreizung bei Ausgabe in RGB ist grundsätzlich erstmal unproblematisch, wenn sie korrekt erfolgt. Man sollte nur bedenken, dass sämtlich wtw und btb Bereiche geclippt werden.

Zum Thema Farbkorrekturen: Heikel. Das Problem an den ganzen Softwaregeschichten ist, dass es schnell unübersichtlich wird (in welchen Format wird gearbeitet, was wird jetzt an welcher Stelle meiner "Pipeline" genau am Signal verändert, etc.). Hier sollte man einen kurzen Moment innehalten und sich genau überlegen, was jetzt mit dem Signal so alles passiert. Da man sich zudem in einem Wertebereich von 8-Bit bewegt, sind die Eingriffe auch generell verlustbehaftet. Hier hängt es von den Fähigkeiten des TVs ab (LUT, Rechengenauigkeit, Featureset), ob man nicht lieber hier ansetzen sollte. Leider sind die Bordmittel meist sehr beschränkt - wobei Änderungen bezgl. Primärvalenzen (also letztlich am Gamut) i.d.R. nicht zwingend notwendig sein dürften. Die TVs sind da meist schon gut auf die Quellen abgestimmt.

Gruß

Denis
 
Zuletzt bearbeitet:
@kowa (hoffe es stört dich nicht direkt von mir angesprochen zu werden. wir hatten da ja ein paar differenzen:)

ich geh mal davon aus das es bei onboardlösungen halt einfach die maximale qualität ist da man immer wieder ließt das die onboardlösungen nicht mit zusätzlichen karten vergleichen kann. ob das so stimmt kann ich halt nicht behaupten. tatsache ist das die quali über den wd im direkten vergleich einfach deutlich und ich meine deutlich besser ist.

also, dazu kann ich folgendes sagen: ich hatte hier eine ganze zeitlang den htpc über eine ati 3400 sowie eine nvidia 8500gt am laufen. also über dezidierte karten. ich konnte jetzt keinen unterschied zu den onboardlösungen feststellen. die benutzten engines, der dezidierten karten und der onboard gpu`s sind, soweit ich weiss, ja auch die gleichen.

Gruß
g.m
 
ist jemand so nett und würde mir auf meine problematik antworten?

ok wenns da keinen unterschied zwischen onboard und karte gibt dann würde mich mal interessieren warum das bild bei mir wirklich nicht einem 100% 1080p detailreichen bild entspricht?!? hab wie gesgt schon alle möglichen codecs durchprobiert. tuts befolgt usw und das bild ist einfach kacke. zumindest im vergleich zu nem standalone bdplayer oder wd player...
 
Zuletzt bearbeitet:
meines wissens gibt es da keinen großen unterschied. ob jetzt die nvidia pure-video-engine als onboard lösung oder inform einer dezidierten gpu verwendet wird, dürfte irrelevant sein. bei dem gegenstück von ati natürlich genauso.
wenn ich falsch liege, bitte ich um berichtigung. als oberprofi (ok, hast du mittlerweie wieder editiert), sehe zumindest ich mich nicht:)

ich kann mir halt nichts darunter vorstellen wenn du sagst, bei dir würde das bild "unschön" aussehen.
dein anderes problem liegt wohl eher an den codecs, also das mit asynchronem ton usw. oder vielleicht auch an schlecht kodierten quellmaterial, mit dem verschiedene codecs eben verschieden gut umgehen können.
ich hatte z.b mal das problem, das der nvidia pure video codec (nicht zu verwechseln mit der in nvidia karten integrirten hardware-engine), meine tv aufnahmen stets asynchron abgespielt hat. mit dem pdvd7 codec von cyberlink war dieses problem nicht vorhanden.
hier hilft wohl nur probieren.

Gruß
g.m
 
Zuletzt bearbeitet:
mit den farben habe ich zwar ein problem. die passen leider nicht mit meinem hauptrechner(eingestellt mit spyder) überein aber das wird sich ändern wenn ich mir einen spyder wieder ausleihe. dann sollten hoffentlich die farben wieder passen. ich hab eher das problem das das bild zu wenig details wieder gibt.
das bild sieht irgendwie unscharf aus.

oder sagen wir mal so. wenn man ne bd nimmt und ein 720p file sieht man keinen unterschied. vorher mit dem wd war das bd bild hammer gestochen scharf und klar. jetzt ist es irgendwie weicher und mit deutlich weniger details. ich konnte auch letzte nacht nicht rausfinden woran das liegen kann.

Sicher dass es nicht am Film liegt ? Gibt auch sehr schlechte BD´s. Ich sehe schon nen riesigen Unterschied zwischen nem File mit original Bitrate und nem 720p, ohne an den Einstellungen rumzuspielen.

Muss dazu sagen dass ich Aero aktiviert hab, keine Ahnung ob das so nen grossen Unterschied macht, nen kleinen aber auf jeden Fall.

ich geh mal davon aus das es bei onboardlösungen halt einfach die maximale qualität ist da man immer wieder ließt das die onboardlösungen nicht mit zusätzlichen karten vergleichen kann. ob das so stimmt kann ich halt nicht behaupten. tatsache ist das die quali über den wd im direkten vergleich einfach deutlich und ich meine deutlich besser ist.

kann auch sein das es nur einstellungs sache ist aber ich habe mal alle tuts im netz durchprobiert die ich so finden konnte.

Ob Onboard oder Graka macht bei Videowiedergabe keinen unterschied, es ist nur so dass Onboardkarten ne schlechte Speicheranbindung haben und die CPU mehr belasten als normale Grakas, das ist aber wieder ein anderes Thema.

und nächstes problem. wenn ich im nv treiber 24p einstelle laufen alle files ruckelfrei und sauber. allerdings sind normale files also nicht 24frames files nicht mehr schaubar. der ton läuft asyncron zu dem ruckelfreien bild mit. das ist wenn ich über mpc schau.

wenn ich allerdings bei gleichen einstellungen einfach vlc benutze läufts ohne versetzte tonspur...
scheint wohl ein prob mit einem codec zu sein, kein plan was ich da jetzt noch ausprobieren soll. hab echt alle möglichkeiten durchprobiert. auch die 25hz tonanpassung im splitter hat nicht geholfen.

jemand ne idee?

Es gibt zb. für Mediaportal den Refreshrate Changer, damit kannst du dann die verschiedenen hz Profile der Graka dem Material automatisch zuweisen, ein paar Leute haben das hier im Einsatz.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh