HI,
habe mir erstmal die ganz einfache version von der idiots seite gelötet.
also nur die rgb und h sync angeschlossen. bild ist vorhanden, sieht bei dvd auch gut aus.
leider sind horizontale linien vom windows explorer sehr stark am flackern.
ist da noch am kabel was zu machen oder lassen sich die timings noch anders einstellen?
ein wenig probleme bereitet mir auch die höhe des dargestellten bildes bzw. der overscan: wenn ich versuche mit powerstrip die höhe anzupassen, verliere ich irgendwann die synchronisierung. der overscan ist allerdings so groß, dass sich im vlc player die suchleiste ausserhalb des bildes befindet, was nicht besonders praktisch zur bedienung ist.
gruß
philipp
Wenn das Kabel ein stabiles Bild erlaubt, kann die Grafikkarte sicherlich Composite-Sync erzeugen, ist wohl eine ATI?
Das Flimmern hat nichts mit dem Kabel oder irgendwelchen Einstellungen zu tun, wenn man ein vollkommen stabiles Bild bei Videos bekommt. Es ist das sogenabbte "Zwischenzeilen-Flimmern" des interlaced TV-Signals. Selbst bei sehr guten PC-Röhren-Monitoren sieht man das Flimmern z.B. bei einer Standard-Auflösung von 800x600 oder 1024x768 im Interlaced-Mode, ist nur nicht so stark, da Computer-Monitore aufwändigere und damit teurere Synchron- und Ablenkschaltungen haben, als TV-Geräte.
Das Overscan bekommt man mit Powerstrip ganz einfach in den Griff:
Zunächst stellt man die Parameter für ein der TV-Norm entsprechendes Timing ein, was ja in deinem Fall schon so ist.
Dann definiert man mit diesen Timings mit Powerstrip eine neue Auflösung mit weniger dargestellten horizontalen Bildpunkten und weniger dargestellten vertikalen Zeilen, in dem man einfach auf den Button , der wie ein Geo-Dreieck und ein Lineal aussieht, klickt. Damit stellt dann Powerstrip mit den bestehenden Timings ein verkleinertes Fenster dar, dass man durch Ziehen der Ränder vergrößern kann. Hat man das Fenster auf die gewünschte Größe (ohne Overscan oder mit geringfügigem Overscan wegen der runden Bildröhren Ecken) gebracht und übernimmt diese Einstellung mit Powerstrip, erzeugt Powerstrip für diese Einstellung eine neue, demensprechende Auflösung mit den richtigen Timings und mann muss nur noch diese Auflösung als Darstellungsauflösung auswählen.
Ich muss es nochmals betonen, Ein TV-Gerät bleibt auch bei RGB-Ansteuerung ein TV-Gerät und wird damit nicht zum Computer-Monitor. Bei TV-typischen Bildern (dynamische Inhalte mit wenig starken Kontrastsprüngen) ) bekommt man eine sehr gute Darstellung. Bei PC-typischen Bildern (statische Inhalte mit hohen Kontrastsprüngen) bekommt man auch eine scharfe Darstellung, aber eben an den Kontrastsprüngen und bei extrem hohen Kontrast (weißer Bildhintergrund) stark flimmernd. Für eine "Mediacenter-Oberfläche" mit Farben mittleren Kontrastes/Sättigung ist aber eine relativ flimmerfreie Darstellung möglich.
Hi Forum!
Wow, das klingt ja wirklich höchst interessant!
Ich habe z.Zt. eine NVidia GeForce 4 MX (onboard in meinem Barebone) per S-Video an meinem Sony 16/9 100Hz Fernseher. Die Farben sind erträglich, nur die Schärfe ist leider nicht wirklich das, was man gerne hätte! Kein Vergleich zu meiner alten Hollywood-Plus-Karte oder meinem 0815-DVD-Player.
Mein Fernseher hat definitiv RGB auf dem ersten SCART-IN, Vorraussetzung von daher also erfüllt.
Da ich mein Media-Center unter Linux fahre (MythTV), wäre doch nur eine PAL-kompatible Modeline für den VGA-Ausgang (X-Server Modelines für PAL sind ja bekannt) und ein solches Kabel nötig, um
1. die Schärfe zu verbessern und
2. die Videobandbreite zu erhöhen
und somit endlich ein "rattenscharfes" Bild zu bekommen. Ich habe schon alle erdenklichen Optimierungen für das Nvidia-TV-Out device versucht, der NVidia-Treiber für Linux lässt auf dieser Karte sogar eine (scheinbar native) 720x576 Auflösung zu, aber wenn man dann ein "rattenscharfes" Bild erwartet, hat man sich dabei geschnitten.
Genauso ist es.
Habe trotzdem ein paar Verständnisfragen, bzw. würde gern ein paar Erfahrungen austauschen, bevor ich so ein Kabel basteln oder anschaffen möchte:
- Stimmt es, daß auf diese Weise (universal Kabel) dann kein Flicker-Filter / Deinterlacer mehr aktiv ist, wie man es bei den NVidia-TV-Out-Encodern gewöhnt ist?
Ja so ist es, wenn es nicht möglich ist, die Filter im Treiber zu aktivieren. Bei Windows sind bei Video-Darstellungen offensichtlich die Filter aktiv und bei 2D-Darstellungen nicht.
- Kann eine GeForce 4MX integrated GPU zumindest von der Hardware her diese PAL-Timings überhaupt fahren (720x576, 50HZ, 15kHz pal interlaced)? Sprich, ist das eine Treiber-Limitation unter Windows oder kann es die Hardware schlicht und ergreifend gar nicht - somit auch nicht mit Linux - und es muss definitiv eine 6000er Nvidia her?
Offensichtlich kann praktisch jede PC-Grafikkarte (mal von ganz alten Typen abgesehen) prinzipiell PAL-Timngs am VGA-Ausgang erzeugen, nur ob man das mit den üblichen Treibern eiunstellen kann oder nicht, ist der Unterschied. Unter Linux sollte es da überhaupt keine Probleme geben, solange die verwendeten Treiber die Modeline-Parameter richtig übernehmen.
Das Problem scheint bei meinem jetzigen Setup (SVIDEO TV-out) zu sein, daß die Grafikkarte intern zwar eine PAL-kompatible Pixel-Auflösung erzeugt, aber dafür trotzdem viel zu hohe Video-Timings verwendet (über 30kHz Zeilenfrequenz, 50Hz non-interlaced), und daß dieses Signal dann im zweiten Schritt erst über den TV-Out-Encoder-Chip auf ein "echtes" PAL-Timing runterkonvertiert wird. Richtig?
Genauso arbet der TV-Out einer Grafikkarte.
Leider kann man dem TV-Out Ausgang nicht einfach ein "echtes" PAL-Timing per Modeline vorsetzen, die entprechende Modeline wird bei allen meinen Versuchen einfach nicht vom Treiber akzeptiert - kein Signal und "ignoring incompatible modeline" Meldungen!
Das ist weder nötig (der TV-Encoder erzeugt das richtige Timing), noch würde es eine Verbesserung des TV-Out Video-Signals bewirken.
Ich hoffe ich habe das soweit schon mal richtig verstanden. Aber nachdem ich o.a. Thread gelesen habe ist mir nicht klar, warum eine GeForce 4MX nicht gehen sollte. Zumindest scheint es unter Windows nicht zu gehen, weil PowerStrip bzw der Windows-Treiber die Timings nicht zulassen. Muss ja unter Linux nicht auch so sein
Daher die Frage: ist das eine Treiber-Limitation, eine Limitation des TV-Out-Encoder-Chips oder wirklich eine Hardware-Limitation der Grafikkarten-GPU?? Es hängt ja scheinbar an den sehr niedrigen horizontalen Frequenzen (15 kHz), oder sehe ich das falsch?
Bei eine GeForce MX440 lässt sich unter Windows am VGA-Ausgang das PAL-TV Timing mit Powerstrip einstellen, aber eben nicht im nVidia-Treiber. Es ist also letztlich eine Treiber-Limitation, wenn man am VGA-Ausgang kein PAL-TV Timing einstellen kann. Die Hardware der Grafikkarten kann das prinzipiell immer und ein TV-Encoder muss überhaupt nicht vorhanden sein, der ist vollständig eigenständig nur für den TV-Out verantwortlich.
Zu dem Flicker-Filter: wenn der normale Desktop "flickert", kann ich das verkraften, da ich sowieso nur MythTV auf dem Fernseher ausgeben will (große Schriften im Hauptmenü, weiche Kontraste, ansonsten nur Fernsehbilder, DVDs, Videos usw.). Dafür sollte die Bildqualität dann aber eben "rattenscharf" sein! Wie sind Eure Erfahrungen mit dem VGA-RGB-SCART Kabel und Media-Center Anwendungen? Macht von Euch einer sowas?
Dafür (und eigentlich nur dafür) ist ein VGA-SCART/RGB Adapter gedacht und nützlich.
Und wie sieht das aus bei der Wiedergabe von z.B. DVB oder DVD. Es gibt ja Progressive DVDs und Interlaced DVDs. Im Falle von Interlaced-Video Material, synchronisiert Euer Video-Player dann mit dem aktuellen PAL-Timing der Grafikkarte? Mir geht's vor allem um die Qualität und Eure Erfahrungen im wahren Leben, egal ob unter Linux oder Windows. Wie sieht Progressive-Material aus?
Hängt von allen an der "Umwandlung" beteiligten Komponenten (Player-Software, Grafikkarte/Treiber) ab, wie gut oder schlecht progressiv in interlaced umgewandelt wird.
Bisher habe ich Interlaced-Video (das meiste, was ich über DVB-T empfange, ist interlaced) per Software-Deinterlacer in progressive gewandelt, bevor es auf dem Bildschirm erscheint. Wenn der Bildschirm nun natives PAL (interlaced) ist, wird ein Video-Player dann (zumindest theoretisch) Interlaced-Video auch synchron darstellen, oder kann es passieren, daß sich die Halbbilder verschieben/vertauschen/überlagern, und man doch wieder einen DeInterlacer benutzen muss....? Wie sind Eure Erfahrungen und/oder Einstellungen mit Software-DVD- oder DVB-TV-Playern?
Ideal wäre es zu hören, dass ein Software-Videoplayer (VLC, MediaPlayer, PowerDVD oder was auch immer), der "irgendein" Video auf einem solchen, per "Universal-Kabel" verbundenen und nativ angesteuerten PAL-Monitor "rattenscharf" anzeigen kann und ihr es bzgl. Bildqualität nicht vom 0815-DVD-Player unterscheiden könnt ;-) In dem Fall würde ich auch 2 Kabel bauen / bestellen wollen und zur Not auch eine neue GraKa anschaffen.
Wenn der 08/15 DVD-Player/DVB-Receiver eine "rattenscharfe" RGB-Videodarstellung liefert, sieht das dann per VGA-SCART/RGB genauso auch aus.
Also, her mit Euren Erfahrungen! Windows/Linux? Was für Player benutzt Ihr? Guckt Ihr auch DVD/DVB Live-TV/DivX? Oder spielt Ihr nur? ;-)
Ich selbst (oder vielmehr die Familie) benutze das mit VDR unter Linux. Aber auch "Versuche" mit dem Windows-Mediaplayer bringen die selben Ergebnisse.
Sobald man die richtigen Einstellungen geschafft hat und man eigentlich nur Video-Material auf dem TV-Gerät abbilden will, hat das nichts mit Spielerei zu tun, es ist vollkommen alltagstauglich. Wer denk, dass man mit den begrenzten Darstellungsmöglichkeiten eines Bildröhren-TV-Gerätes auch normale Computer-Anwendungen verwenden kann, der wird enttäuscht/frustriert sein.
Gruß
Rimini
P.S.: Damit sollten die bisher unbeantworteten Fragen beantwortet sein.