VGA/Scart-RGB Adapter-Kabel

Hi Rimini,

das erste kabel ist eben gekommen.
da ich leider gestern einen kunden in die wüste schicken musste, habe ich jetzt drei tage frei und werde mich morgen mal damit befassen.

die sache mit den gleichgewichtsstörungen ist schon übel.
mein schwager hatte die nach einer bandscheiben-op.
da sind durch die vernarbungen der op nerven der füße blockiert worden und er wusste somit im wahrsten sinne nicht mehr wo er stand weil das gehirn keine rückmeldung bekam.

was ich auch schon mal gelesen habe, ist, das solche probleme durch den gleichgewichtssin im ohr verursacht werden.

ich würde auf jeden fall mal zu einem spezialisten an einer uni gehen.
sicher ist sicher.

drück dir die daumen.;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi,

Albin, danke für den netten Hinweis mit dem Spezialisten. Die Ursache ist bei mir schon klar, irgenwelche Nerven sind durch den Unfall (bin mit dem Leihwagen in Detroit zwischen zwei Trucks geraten) offensichtlich in der Halswirbelsäule Nerven, die die Bewegung (Arme, Beine usw.) steuern, "verklemmt", so dass für das Gehirn gesehene Bewegung, Bewegungsmeldungen des Gleichgewichtsorgans und Bewegungsrückmeldungen der Muskeln nicht übereinstimmen und es eben zu den gefühlten Gleichgewichtsstörungen kommt. Jetzt sind die Ärzte "nur noch am Rätseln", welche Nerven, wo und in welchem Umfang betroffen sind, damit eine entsprechende REHA-Maßnahme eingeleitet werden kann. Aber das wird erst im Neuen Jahr, vorher will ich erstmal meine Ruhe haben.

Schön zu hören, dass DHL in der Vorweihnachtszeit immer noch schnell ist.

Rimini
 
@ Rimini

Danke für das Schaltbild mit dem DVI-I Stecker.
Ich hab heute mir alle Bauteile besorgt und die Schaltung mal nachgebaut, doch leider versagt. Eigentlich ist das Pipifax und nach meiner Meinung her vom Umbau alles korrekt gelaufen (Stecker sehen aus wie Hund^^) doch leider durch Nvidia Treiber Probleme komme ich nicht zu einem positiven Ergebnis und möchte auch nicht mehr rumexperementieren. Daher bitte ich drum mir ein solches Kabel anzufertigen.
VGA > SCART/RGB wäre wohl für mich das beste da es ja zwischen DVI und VGA keinen Qualitätsunterschied gibt und bei mir mehrere DVI > VGA Adapater rumliegen.
Da ich diesen Monat ziemlich knapp bei Kasse bin könnte ich erst im Januar so ein Kabel kaufen, also falls es möglich ist würde ich mich sehr über eine Antwort freuen (auch per ICQ die ich in einem vorherigen Post angegeben habe).

Ich wünsche dir aber vorerst gute Besserung und angenehme Weihnachtstage.

greetz PAL_GUN
 
Zuletzt bearbeitet:
Hallo PAL_GUN,

nicht gleich aufgeben, wenn es nicht sofort funktioniert. Aber schön, dass du es versucht hast. Die Stecker sehen bei mir bei ersten Lötversuchen auch schlimm aus, da muss man erstmal etwas Erfahrung mit haben. Insbesondere die SCART-Stecker sind meist aus Thermoplast und die "verformt" sich schnell beim Löten an den Kontakten, da hilft nur: beim Löten den SCART-Stecker in eine SCART-Buchse (alter DVD-Player oder sowas ähnliches) stecken, dann sind die Kontakte fixiert und die Wärme wird auch besser/schnellr abgeführt.

Es kann schon noch ein Problem mit dem DVI-Anschluss geben: In keiner Beschreibung der DVI-Signale, die ich auf die Schnelle gefunden habe, ist die Funktion des HOT-PLUG Signals (DVI Pin 16) genau erklärt. Eventuell muss da eine Drahtbrücke nach Masse (DVI Pin 15) vorhanden sein, damit überhaupt der DVI-Anschluss (auch der analoge Teil des DVI) aktiviert werden kann. Denn es muss auf jeden Fall bei angeschlossenem Kabel mit dem angeschlossenen TV-Gerät, aber noch nicht eingeschaltete, zumindest die Anzeige im Treiber aktivierbar sen. Soweit solltest du schon kommen, sonst wird das nie funktionieren. Um dies so machen/überprüfen/einstellen zu können, braucht man natürlich erstmal einen PC-Monitor an einem anderen Ausgang (DVI oder VGA ist egal) der Grafikkarte oder man muss das über eine Remote-Verbindung (mit RADMIN oder VNC oder sowas ähnliches, die Windows eigene Remote-Desktop-Verbindung kann man leider nicht dafür nutzen) von einem anderen PC aus machen.

Welche Grafikkarte mit welchen Anschlüssen ist es denn und welche PC-Monitore mit welchen Anschlüssen stehen denn zur Verfügung?

Dieses Jahr mach ich noch vor Weihnachten alle bisher bezahlten VGA-SCART/RGB Adapter-Kabel. Ab Januar mach ich dann erst die Kabel, so dass ich Eure Wünsche mit der Kabellänge nur als unverbindliche "Vorbestellung" zur Kenntnis nehme. Wenn ich dann so ein Kabel fertig habe, bekommt Ihr eine PM mit der Bankverbindung und ich erwarte eine Rückantwort mit der Lieferadresse, wenn das Geld überwiesen wurde. Wenn dann die Zahlung eingegangen ist, verschicke ich umgehend das Kabel. Ich glaube so bekommt man das "fairer" abgewickelt, da ja auch noch im nächsten Jahr einiges auf mich zukommt.

Danke für die Wünsche

Rimini

Gruß

Rimini

P.S.: Während vor ein paar Wochen es noch unmöglich war, DVI-I oder DVI-A Stecker einzeln irgendwo zu bekommen, hat sich das geändert: DVI-I Stecker gibt es jetzt bei Segor ab Lager für 4,30€. Der Preis ist natürlich gegenüber einem VGA-Stecker, der komplett mit einer vernünftigen Plastik-Haube, ca. 1,50€ kostet, schon sehr "happig", so dass ich dafür 3,00€ Aufpreis gegenüber der VGA-Ausführung nehmen müsste. Werde mir morgen mal so einen DVI-Stecker holen und schauen, ob ich mit meinen Mitteln da vernünftig Kabel anlöten oder crimpen kann. Voraussetzung ist es aber, zu sehen ob ein so angeschlossenes TV-Gerät auch wirklich von der Grafikkarte als "Monitor" erkannt wird. Werde ich zwischen Weihnachten und Neujahr mal machen. Ansonsten hab ich gerade eine Beschaltung für ein DVI-VGA-Verbindungskabel gefunden und dort ist das HOT-PLUG Pin 16 nicht mit Masse (GND Pin 15) sondern mit +5V Pin 16 des DVI-Steckers verbunden. Was auch noch fehlen könnte, ist eine Verbindung zwischen Piin 15 (GND) und Pin C5 (Analog-GND) am DVI-Stecker, was aber eher unwahrscheinlich ist. Also HOT-PLUG nicht mit Masse (kann aber auch nichts kaputt gehen, wenn man das macht) sondern mit den +5V verbinden!
 
Zuletzt bearbeitet:
@ Rimini

Beim löten selbst lief alles sauber, das Problem lag eher am öffnen des DVI Steckers da er anscheinend gepresst wurde (Schale liegt im Mülleimer).

Meine Grafikkarte ist eine Nvidia GeForce 6800 GT von LEADTEK (PX6800 GT TDH) mit 2 DVI und einem S-Video Ausgang.

Ich habe 2 Monitore der eine ist ein SAMSUNG SyncMaster 1100p (VGA > DVI) und der andere ein ACER 7277e (festsitzender VGA den ich mit einem VGA > DVI Adapter anschliesse).

Ich erwähne nochmal um Missverständnisse zu meiden das ich gerne einen "VGA > Scart-RGB Adapter Kabel" hätte und keinen DVI, da ich mehrere VGA > DVI Adapter rumliegen habe und ich das Kabel dann auch für ältere Grafikkarten nutzen kann.

Deine Frage ob ein Fernseher der über einen DVI Anschluss an eine Grafikkarte angeschlossen wird als Monitor erkennt, kann ich nur mit JA beantworten. Da es auch schon mit meinem Standard Kabel angezeigt wurde.

Und um nochmal ein Versuch meiner Seits zu starten würde ich mich freuen wenn ich die Beschaltung für ein DVI-VGA-Verbindungskabel von dir erhalten kann.

greetz PAL_GUN
 
Hallo,

da kannst du froh sein, dass der DVI-Stecker nicht mit Plastik umspritzt wurde, solche Stecker bekommt man praktisch nicht zerstörungsfrei auseinander.

Klar kannst du auch ein Kabel mit VGA-Stecker nehmen und einen DVI/VGA-Adapter dazwischen schalten, das haben schon einige gemacht und es funktioniert.

Bei www.reichelt.de findet man bei den DVI/VGA Kabeln ein Datenblatt des Herstellers mit der Beschaltung:

http://www.reichelt.de/?SID=20xnIQv...36;ARTICLE=42773;START=0;SORT=artnr;OFFSET=16

Die Voraussetzungen sind bei die doch ideal:

1. PC-Monitor an einem Anschluss der Grafikkarte anschließen (ist ja wohl erstmal so)

2. TV-Gerät mit dem VGA-SCART/RGB Adapterkabel am anderen Grafikkartenanschluss anschließen, aber das TV-Gerät noch nicht einschalten (vorsichtshalber)

3. Den zweiten Monitor-Anschluss mit dem angeschlossenen TV-Gerät als Desktop-Erweiterung (erstmal) aktivieren

4. Jetzt sollte als Monitor-Type am zweiten Anschluss mit dem TV-Gerät ein "Standard-Monitor Treiber" verwendet werden, den man mit der eingangs dargestellten INF-Datei ändern muss, damit man im nVidia-Treiber die PAL-typischen Timings einstellen kann.

5. Wie engangs dargestellt die PAL-typischen Timings im nVidia-Treiber einstellen und dann sollte man gefahrlos das TV-Gerät einschalten können. Wenn alles richtig gemacht wurde, sollte man den erweiterten Desktop, der natürlich erstmal leer ist, nun auf dem TV-Gerät sehen können und den Maus-Zeiger dorhin bewegen können oder ein Desktop-Icon oder auch ein geöffnetes Fenster einer Anwendung auf den erweiterten Desktop verschieben können.

Jetzt hat man also eine vollwertige Zwei-Monitor Konfiguration und man kann natürlich auch eine normale Ein-Monitor Konfiguration mit nur dem TV-Gerät erzeugen. Dazu sollte man zunächst primäres und sekundäres Display vertauschen. Wenn das auch nach einem Neustart so funktioniert, also das TV-Gerät das primäre Display ist, kann man natürlich einfach den PC-Monitor entfernen. Aber schon vorweg, ein TV-Gerät ist kein vollwertiger Ersatz für einen PC-Monitor. Wegen des Zeilensprung-Verfahrens flimmert es bei starken Kontrastsprüngen in den Darstellungen, aber gerade Videos werden wesentlich besser dargestellt, als über TV-Out per Composite-Video oder auch S-Video. Als "Desktop-Oberfläche" muss man eben eine Darstellungsart mit weniger Kontrasten und möglichst großer und "dicker" Schriftdarstellung wählen, was man typischerweise bei den Media-Center-Oberflächen auch so einstellen kann.

Wie gesagt, es könnte möglich sein, dass man am DVI-Stecker eine Brücke zwischen den Pins für HOT-PLUG und +5V löten muss, damit überhaupt ein "Monitor" erkannt wird. Genauso könnte es sein, dass GND und A-GND miteinander verbunden sein müssen. Mehr ist auf jedenfall nicht nötig, wenn dein gebasteltes Kabel der Schaltung entspricht.

Wenns nicht funktioniert, einfach möglichst genau beschreiben was wie beschrieben geht und was nicht und was eventuell auf dem TV-Gerät zu erkennen ist. Ich bin da sehr geduldig, um es zum Funtionieren zu bringen. Sei genauso geduldig, es lohnt sich.

Gruß

Rimini
 
Hi Rimini,

Klar kannst du auch ein Kabel mit VGA-Stecker nehmen und einen DVI/VGA-Adapter dazwischen schalten, das haben schon einige gemacht und es funktioniert.

das kann ich nur bestätigen!
hab das gestern bei meiner besseren hälfte auch so gemacht.
monitor direkt über dvi und tv mit adapter dvi/vga.

ich muss schon sagen, das ich begeistert bin von deinem wissen und dem kabel!
jetzt sitze ich hier und bin am tippen und gleichzeitig hab ich HDR laufen.

und wieder kann man ein gerät aus dem wohnzimmer verbannen.:)

jetzt muss ich meiner süßen nur noch beibringen, warum der mauszeiger auch schon mal auf dem tv auftaucht.:rolleyes:

hach, frauen und technik.:lol:

ist das eigentlich normal, das ein film auf dem tv einwandfrei läuft und normale fenster wie browser auf dem tv horizontal zittern?
 
...

ist das eigentlich normal, das ein film auf dem tv einwandfrei läuft und normale fenster wie browser auf dem tv horizontal zittern?

Ja, das ist leider so normal. Das liegt am Zeilensprung-Verfahren der TV-Technik und das fällt eben bei Videos nicht auf, wird aber deutlich sichtbar bei dünnen horizontalen Linien mit hohem Kontrast. Ist eben ein TV-Gerät und kein PC-Monitor. Selbst bei PC-Röhren-Monitoren sieht man dieses Flimmern, wenn man einen der Standard interlaced Modi (800x600 oder 1024x768 gibt es interlaced) einstellt. Auf einem PC-Röhren-Monitor "schmerzt" das nicht ganz so doll in den Augen, da hier eine weitaus aufwendigere (bessere) Ablenk-/Synchronisier-Schaltung eingesetzt wird, als bei TV-Geräten, die eben preiswert sein sollen.

Aber schön zu hören, dass es sonst problemlos und überzeugend funktioniert. Leider bekommt man von den Wenigsten eine Rückmeldung, wenn es einfach so funktioniert, wie es soll und dann erscheinen hier im Forum hauptsächlich nur die Probleme, die es sicherlich vereinzelt gibt, da es eine praktisch "unendliche" Menge an Kombinationen von PCs mit Grafikkarten und TV-Geräten gibt.

Das zweite, noch fehlende (und auch alle anderen bezahlten Kabel) verschicke ich noch nächste Woche (zwei sind schon fertig und der Rest wird am Wochenende), bitte noch etwas Geduld.

Gruß

Rimini
 
@ Rimini

Kabel ist endlich angekommen *freu*
Danke dir nochmal!

Bin schon fleissig am testen, die timings von hier funzen bei mir nicht, aber mittlerweile habe ich ein Bild.
Wenn alles perfekt poste ich hier meine timings etc.

Ansonsten noch ein frohes Fest @all

Gruss sam
 
HI,

ich habe mal wieder ein problem mit dem kabel: nach dem wechsel von einer ati x850xt auf eine x1900xt bekomme ich mit keinen timings mehr ein vernünftiges bild auf dem fernseher dargestellt.
erstmal mußte ich heraus finden, dass nur die version 3.73 build 579 die timings korrekt übernimmt. alte versionen lassen keine negativen sync. signale zu bzw. springen nach dem einstellen wieder auf positiv zurück.
nur nochmal zur sicherheit, dass die einstellungen richtig sind: sync. beide auf negativ und composite sync. aus(habe auch an probiert, brachte auch nichts), interlaced an?
da das kabel bei der alten grafikkarte funktioniert hat, wird es wohl ok sein. könnte es sein, dass die widerstände das sync. signal zu weit abschwächen? ganz einfache versionen des kabels kommen ja gerade bei ati karten vollkommen ohne widerstände aus und nehmen einfach das sync signal.
der fehler zeigt sich in form eines extrem zerrissenen bildes, dass ich zwar durch extremes verstellen der größe(pfeile in powerstrip) irgendwann zum durchlaufen bekommen, aber selbst dann ist es noch zerrissen. leider habe ich gerade keine digicam zur dokumentation da, werde aber ein bild nachliefern, wenn es hilft.
kann ich mit einem einfachen multimeter mal nachmessen, ob die sync signale ausreichende signalstärke haben?
das kabel ist die einfache version, allerdings ohne C1 und D1, da noch 4:3 röhre.

Gruß

Philipp
 
Zuletzt bearbeitet:
Hi,

ja es ist richtig, dass beide Sync-Signale negative Polarität haben müssen und Composite-Sync ausgeschaltet sein muss. Auch der Widerstand zur Pegelanpassung ist korrekt. Mit einem Multimeter kann man den Sync-Pegel nicht messen, dazu müsste man einen geeichten Oszillografen nehmen. Ein TV-Gerät erwartet einen Sync-Pegel von ca. 0,3Vss und kommt mit Pegeln zwischen ca. 0,2...0,5Vss bestens zurecht (viele moderne TV-Geräte vertragen auch noch wesentlich größere Abweichungen, so dass ben teilweise auch eine Schaltung ohne Pegelanpassung funktioniert). Eine Grafikkarte liefert aber wenigstens Synchron-Signale mit 2,4V (TTL-Pegel) an 75 Ohm Abschlusswiderstände im Monitor. Da dieser Pegel aus den +5V über einen Reihenwiderstand (Innenwiderstand) von 75 Ohm erzeugt werden, ist also eine Pegelanpassung von ca. 1:10 (0,5V:5V oder 680 Ohm + 75 Ohm:75 Ohm) schon richtig.

Was man in etwa messen kann, ist der unbegrenzte High-Pegel der Synchron-Signale, in dem man damit einen Elko über eine Entkopplungs-Diode auflädt, wie es eben z.B. die Kombination D1-C1 macht und an dem Elko sollte man dann +5V abzüglich der Diodenflussspannung (ca. 0,6V bei Si-Dioden bzw. 0,3V bei Schottky-Dioden) ohne weitere, größere Belastung messen können.

Entweder an dem Kabel ist was defekt oder die neueren Treiber von ATI sind mit PowerStrip nicht nutzbar. Total "zerrissenes" Bild, dass man mit den Größeneinstellungen "fast" zum Stehen bekommt, deutet sehr auf falsche Frequenzen hin, denn mit der Größenänderung werden die Frequenzen beeinflusst.

Ist das der selbe Rechner wie vorher mit der anderen Grafikkarte? Wenn ja oder überhaupt bei vollkommen "verdrehten" Timings: in Powerstrip das selbst definierte Timing löschen und Neustart. Eventuell auch Powerstrip (Timings vorher entfernen) und die ATI-Treiber vollständig deinstallieren und wieder neu installieren. Hab da auch so meine Mühe beim Experimentieren gehabt (das Gespann ATI-Treiber/PowerStrip ist manchmal schon ziemlich "zickig").

Gruß

Rimini
 
Hi Rimini,

der rechner ist kompl. neu aufgesetzt, treiber und powerstrip sind also neu installiert. werde das kabel nochmals durchmessen, denke aber nicht, dass ich da noch einen fehler finde.
vielleicht können andere user mit einer ait x1900xt ja mal ihre timings/erfahrungen posten.
werde mich am we nochmal dranbegeben und dann bericht erstatten.

gruß

philipp
 
Wenn das Sytem vollkommen neu installiert wurde und dies:

HI,

ich habe mal wieder ein problem mit dem kabel: nach dem wechsel von einer ati x850xt auf eine x1900xt bekomme ich mit keinen timings mehr ein vernünftiges bild auf dem fernseher dargestellt.
erstmal mußte ich heraus finden, dass nur die version 3.73 build 579 die timings korrekt übernimmt. alte versionen lassen keine negativen sync. signale zu bzw. springen nach dem einstellen wieder auf positiv zurück.

...

sich so verhält, würde ich eine unvollständige Unterstützung der x1900 durch Powerstrip vermuten. Müsste mal jemand mit einer x1900 bestätigen, eine x1900 hab ich hier leider nicht zum Ausprobieren. Das ist das eigentliche Problem mit den ATI-Karten, wenn diese nicht richtig durch Powerstrip eingestellt werden können, bekommt man das leider nicht hin. Dies trifft auch auf alle anderen Grafikkarten zu, wenn deren Treiber keine Möglichkeiten zum Einstellen der Timings usw. bieten, wie das bei den nVidia GeForce ab dem 6000er Chips möglich ist.

Da das Kabel vorher (mit der x850) funktionierte, war es ja eigentlich richtig.
 
HI Rimini

frohes Neues erstmal an alle und alles Gute für 2007!!

Ich wollte mal fragen ob es möglich ist mir ein VGA>RGB Scart Kabel anzufertigen. Aber auch nur dann ein RGB Scart wenn sich die Qualität zu einem YPbPr-Signal nicht unterscheidet.

greetz PAL_GUN
 
Hallo und ein Gutes Neues Jahr,

von der Theorie her sollte SCART/RGB die beste Video-Qualität ergeben, danach kommt YPbPr (auch als YUV bezeichnet), dann S-Video und zuletzt Composite-Video. Das liegt daran, dass die Grafikkarte ja "nativ" erstmal nur RGB erzeugt und dann daraus YPbPr (YUV) und daraus dann S-Video bzw. Composite-Video und im TV-Gerät muss dann jeder Umwandlungsschritt wieder Rückgängig gemacht werden, da ja die Bildröhre (oder auch ein LCD/Plasma-Display) wieder "nativ" nur mit RGB gesteuert werden kann. Hatte da mal eine bildliche Darstellung gemacht:



Da sieht man insbesondere deutlich den Qualitätsverlust durch die Bandbreitenbegrenzung der Signale.

Natürlich mache ich noch die Kabel (die fehlenden mehrfach bestellten werden diese Woche fertig, so dass ich dann erst welche anfertige und per PM in der Reihenfolge der Interessenten diese anbieten werde) und falls jemand Probleme hat, die man nicht einfach beseitigen kann oder mit der erreichbaren Video-Qualität nicht zufrieden ist, ich nehme die Kabel auch wieder gegen Rückerstattung des gezahlten Geldes (abzüglich der Versand(un)kosten) zurück.
 
Zuletzt bearbeitet:
@Rimini

Wirst du dich dann bei mir melden wenn du mir solch ein Kabel anfertigen kannst oder soll ich schon die Bestellung per PM machen. Ich erhoffe mir mit dem Kabel eine gute Qualität bezüglich DVD Filme und DVB-T Stick vom PC zum Fernseher. Das mit dem DVB-T ist bei mir so ne Sache da ich nämlich einen Rückprojektions Fernseher habe und das herkömmliche Kabelfernsehen bei mir ein wenig zu sehr verschneit ist, was man vor allem an diesem grossen Fernseher deutlicher erkennen kann habe ich mir gedacht das, das Bild bestimmt durch die digitale Übertragung des DVB-T Sticks sich verbessert. Ich weis das der Fernseher selbst ein gewisses Limit an Bildqualität hat aber mal schauen. Ausprobieren konnte ich das ganze leider wegen dem fehlendem Qualitätskabel VGA> RGB Scart nicht. Auf die Idee einen DVB-T Stick zu kaufen um besser Bildqualität zu erhalten kam ich weil ich mir dachte das bestimmt viele neue Fernseher sowas wie ein Digital Receiver integriert haben (daher vielleicht auch die viel bessere Bildqualität als herkömmliche Fernseher) und meiner wo möglich nicht hat. Und vor allem sind die DVB-T Sticks recht günstig geworden.

Danke für die Information der Video-Signal Verarbeitung

greetz PAL_GUN
 
Zuletzt bearbeitet:
Schick mir eine PM mit der benötigten Länge, das wird dann so als unverbindliche Vorbestellung aufgenommen und der Reihe nach abgearbeitet.

Rückprojektions-TV, ist wohl auch schon etwas älter, aber ehe TV-Geräte mit internen DVB-Receivern als Massenware angeboten werden (wenn überhaupt) vergehen schon noch ein paar Jahre. Die sichtbare Qualität von Video-Darstellung eines PCs am SCART/RGB-Anschluss eines TV-Gerätes entspricht der Qualität eines DVD-Players mit RGB-Ausgängen, wenn der PC einen DVB-Empfänger/-Karte hat.

Wenn das DVB-T Empfangssignal gut ist (ist eine Frage des Standortes und der Antenne) ist DVB-T wesentlich besser wie analog TV, eben DVD-Qualität. USB-Stick ist da nicht unbedingt die beste Wahl, interne PCI/PCIe DVB-Karten sind meist deutlich besser, haben meist die besseren Empfangseigenschaften (Tuner). Worauf ich achten würde ist auf jeden Fall eine Kompatibilität zu DVBviewer für Windows oder eben VDR für Linux.
 
Mal so ne Frage nebenbei, woher erkenne ich denn ganz leicht was für eine maximale Auflösung mein Fernseher anzeigen kann. Im nVdia Treiber zeigt er mir an:

1024x768, 800x600, 720x576, 720x480, 640x480, 512x384, 400x300, 320x240, 320x200

Und alle funktionieren.
Aber sind es auch wirklich 1024x768 die er tatsächlich anzeigt?

Und welche Auflösung ist denn für das anschauen von DVD Filmen oder das Fernsehen über den DVB-T Stick am sinnvollsten.
 
Die maximale (physische) Auflösung hängt von der Display-Technologie ab. Bei Rückprojektions-TVs kenne ich mich nicht so aus, aber wenn da eine konventionelle Bildröhre drin ist, gibt es keine "physische" Auflösung im herkömmlichen Sinn (natürlich begrenzt die Loch- oder Streifenmaske bzw. das Farbpunkt- oder- streifenraster schon die maximale/sinnvolle Auflösung). Bei einem LCD- oder Plasma-Display gibt es dagegen nur eine physikalische Auflösung, eben den Bildpunktraster. Wenn man im Treiber 1024x768 einstellt, wird auch ein Bild mit 1024x768 Bildpunkten erzeugt, ob das bei dem TV-Gerät nun sinnvoll ist oder nicht.

Was ist das denn für ein TV-Gerät, 4:3 oder 16:9? Bei 4:3 Bildformat des TV-Gerätes ist eine Auflösung von 720x576 typisch für PAL-TV und bei einem 16:9 Bildformat des TV-Gerätes wären das dann 1024x576 amorph bzw. 720x576 anamorph. Das mit dem 4:3/16:9 amorph bzw. anamorph werd ich mal in einem eigenen Thema abhandeln. Nur soviel: PAL-TV beruht immer auf einem 625 Zeilen Bild mit eben ca. 576 darstellbaren Zeilen und in der horizontalen wird praktisch immer mit ca. 720 Bildpunkten (digital) gearbeitet, egal welches Bildformat es ist oder das TV-Gerät hat und dies gilt auch für DVB oder DVD, solange es kein HDTV ist. Damit hat also ein konventionelles 16:9 PAL-TV Video die selbe Auflösung, wie ein 4:3 Video, nur dass einfach die dargestellte Bildhöhe reduziert wird (deshalb anamorph bzw. die "Eierköpfe", wenn das TV-Gerät bei 16:9 Video-Signal nicht in den 16:9 Mode schaltet oder eben keinen 16:9 Mode hat).

Ob das Rückprojektions-TV-Gerät am SCART/RGB-Anschluss auch 1024x768 überhaupt verarbeiten kann (dies ist ja eine nicht PAL-typische Auflösung und wurde erst bei den Komponenten-Signalen für HD-TV, nicht mit HDTV zu verwechseln, eingeführt), kann ich nicht sagen. Das muss man wohl ausprobieren.
 
Hier ist nochmal die Gebrauchsanleitung:
http://www.mediaonline.de/popup/herstellerprospekte/lg_re39nz43rb.pdf

Es ist ein 16:9 Fernseher.

Gut dann weis ich jetzt das ich am besten auf die Auflösung auf 720x576 oder 1024x576 einzustellen habe.

Und was hat sich mit der Halbbildrate (i) und Vollbildrate (p) auf sich, und erkennt man da einen wesentlichen Unterschied?

Zum Beispiel habe ich jetzt auch den neuen Nintendo Wii und da kann man auf 50Hz (576i), 60Hz (480i) und EDTV/HDTV (480p) einstellen (habe es im Moment auf 576i obwohl das Bild bei manchen Fernsehern flackert aber bei mir nicht, ansonsten sehe ich da auch keinen Unterschied).
Und da bin ich am überlegen ob ich mir dafür ein Componenten Kabel holen soll und ob mein Fernseher das letztere auch unterstützt (vom Anschluss her ja).
Aber von dem Auflösungs Unterschied sollte doch, so nehme ich es an, das Bild mit 576 etwas feiner sein als mit 480 und daher besser oder?
Und da es (p) nur mit dem 480 statt mit 576 auf dem Nintendo Wii gibt weis ich nicht ob es sich wirklich lohnt.
Vielleicht kannst du mir das ganze etwas genauer erklären.
 
Zuletzt bearbeitet:
480p (progressiv) bedeutet Vollbilder mit 480 "Zeilen", 480i (interlaced) bedeutet zwei ineinander verschachtelte Halbbilder mit der halben Zeilenanzahl also 240 Zeilen je Halbbild. Der Unterschied 576i zu 480p ist vom Inhalt abhängig, da das eine ein interlaced Bild mit 576 Zeilen pro Vollbild (oder eben 288 Zeilen pro Halbbild) ist und das andere ein non-interlaced Bild mit 480 Zeilen pro Vollbild. Interlaced Dartstellungen neigen bei hohen Kontrastunterschieden im Bildinhalt zum Flimmern, was bei üblichen Video-Darstellungen nich auffällt, wohl aber bei solch statischem und kontrastreichen Darstellungen mit feinen Strukturen wie z.B. bei der Text-Verarbeitung in den Augen "schmerzt". Gegenüberdem 756i hat ein 480p Bild eine geringere Auflösung, aber praktisch eben keine Flimmer-Efekte. Was bei einer Wii besser ist kann ich nicht sagen, müsste man auch probieren.
 
Also beim (p) progressiv macht sich in erster Linie die wegfallenden Flimmer Effekte bemerkbar (OK verstanden).
Ich hatte irgendwo bei Wiki gelesen das bei progressiv mit 60 bilder/s und bei (i) interlaced nur 25-30 bilder/s gearbeitet wird nur leider finde ich eben diesen Artikel nicht. Da dachte ich mir dann das beim Nintendo Wii die Spiele bei progressiv bestimmt dann auch mit 60 bilder/s statt nur mit 30 bilder/s laufen.
 
Genau das ist der Unterschied zwischen non-interlaced (p) und interlaced (i) Bilddarstellungen. bei Non-Interlaced werden eben 50-60 (je nach Vertikalfrequenz) Vollbilder je Sekunde dargestellt und bei Interlaced eben 50-60 Halbbilder, so dass bei Interlaced eben nur die halbe Anzahl von 25-30 Vollbilder (zusammensetzt aus zwei Halbbildern) dargestellt wird, was dann die Flimmer-Efekte erzeugt. 480p flimmert also deutlich erkennbar weniger als 576i, hat aber eben die geringere Auflösung. Ob die Flimmer-Efekte mehr stören oder die geringere Auflösung akzeptabel ist, muss man individuell entscheiden.

P.S.: Der angegebene Link zur Gebrauchsanleitung des TV-Gerätes ist nicht funktionsfähig, habe aber bei LG die Bedienungsanleitung zum RE39NZ43RB gefunden, leider sind da keine weiteren Angaben zu den verwendbaren Anzeige-Modi enthalten. Es ist nur klar, dass SCART 1 als einziger SCART-Anschluss RGB-Eingänge hat.
 
Zuletzt bearbeitet:
Hallo Rimini,

ich habe immer noch probleme, die ich jetzt auch mit bildern belegen kann.
mit diesen timings:
720x576=720,42,72,134,576,3,28,18,15125,41



erhalte ich:



verändere ich die timings bei festgestellter frequenz auf:


erhalte ich ein langsam durchlaufendes bild, auf dem sich der hintergrund zwar erahnen läßt, aber das war es auch schon. durch ändern der größe(powerstrip rechtes steuerkreuz, taste nach unten) läßt sich die geschwindigkeit des durchlaufs ändern, ich kann sogar irgendwann die richtung umkehren, kurz danach verliert er die syncro., das bild wird schwarz.


probeweise habe ich am kabel nochmal den transistor ausgelötet und die ganze einfache version mit nur h-sync gelötet, ergebnisse sind gleich.

fernseher scheint ok zu sein, ein anschluss von so einem vga auf scart rgb kästchen brachte ein stabiles bild. ich würde auch ja auch zur not bei dieser version bleiben, leider ergeben sich zwei nachteile: das bild ist nicht ganz dargestellt, oben und unten fehlt etwas( läßt sich evtl. mit einer custumauflösung bei powerstrip beheben) und die farben/auflösung erscheint mir in erinnerung an das reine rgb kabel schlechter. außerdem brummt der fernseher, wenn ich z.b. ein weißes explorerfenster darstelle, beim rel. dunklen hintergrundbild ist er ruhig. vorteil scheint ein eingebauter flicker fixer zu sein, selbst dünne horizontale linien im explorer flimmern nicht. kann aber auch an der unschärfe liegen.
karte ist ein ati x1900xt, ati treiber habe ich 6.11 und 6.7 ausprobiert, powerstrip ist 3.73 build 579.

hat irgendein x1900xt nutzer ein scart rgb kabel erfolgreich im einsatz und kann seine timings/einstellungen posten?

gibt es eigentlich noch eine alternative zu powerstrip, da dieses die timings auf der x1900xt nicht richtig einstellen kann?

Gruß

Philipp
 
Zuletzt bearbeitet:
Hallo Rimini,

ich habe immer noch probleme, die ich jetzt auch mit bildern belegen kann.
mit diesen timings:
720x576=720,42,72,134,576,3,28,18,15125,41

...

Schau mal in den ersten Beitrag von mir, da findet man am Ende die PowerStrip-Parameter:

720x576=720,16,64,64,576,5,5,39,13500,15

Diese sind soweit auch für ein PAL-konformes Video-Signal richtig!

Wie man sehen kann, gibt es da zu deinen Einstellungen starke Abweichungen. Kritisch ist insbesondere die starke Abweichung der Vertikal-Synchron-Impulslänge (heißt bei meiner Version von PowerStrip "Synchronisierungs-Breite", bei dir "Sync width") und lässt sich "zeilenweise" verändern. Übliche Werte für PAL sind 3 oder 5 x "Zeilenlänge" (also 3 oder 5 x 64µs) und bei Interlaced sollte es eine ungerade Zeilenzahl sein.

Die "verdrehten" Werte für das horizontale Timing bei dir zeigen eigentlich, dass du versucht hast die Bildbreite zu reduzieren, um den Overscan eines TV-Gerätes zu beseitigen. In der Horizontalen geht das auch, da hier praktisch keine direkte Verknüpfung zwischen Zeilenfrequenz und dargestellten Bildpunkten existiert (siehe Erklärung im ersten Post). Aber in der Vertikalen kann man praktisch das Overscanning nicht durch Veränderungen der Timings beseitigen, sondern muss die Anzahl der dargestellten Zeilen reduzieren, da die Zeilenzahl direkt mit den Timings verknüpft sind.

Wenn du so vorgegangen bist, wie es im ersten Post beschrieben ist und derartig "vedrehte" Werte in PowerStrip stehen, hat die PowerStrip-Version einen Fehler oder man hat die Werte selber (mit den PowerStrip "Reglern" für Position und Größe) "verdreht". Auch wenn man in PowerStrip bei Veränderungen der Position bzw. der Größe der Darstellung die Frequenzen "feststellt", werden sehr schnell für ein PAL-TV Gerät "unbrauchbare" Werte für die Synchronisation erzeugt. Korrigiere also alle Timing-Parameter in PowerStrip, so dass sie den im rsten Post angegebenen Werten entsprechen, dann sollte das TV-Gerät auch wieder das Bild synchronisieren.

Gruß

Rimini

P.S.: Löte wieder die Transistor-Schaltung zusammen! Auch wenn bei ATI Composite-Sync einstellbar ist, ist das etwas "tricky" und bereitet eher Einstellprobleme.
 
hallo!!
bin im besitz von einem mame automaten wo ich mittlerweile ein Tv Gerät eingebaut habt! will mein pc mittels vga-> scart verbinden, doch ich bin leider schon am verzweifeln! spiele mich nun schon seit mehrern wochen und schaff es einfach nicht!
kabel wurde nach hiernach gefertigt http://ryoandr.free.fr/english.html
hab eine geforce 2 MX 400 und deine radeon 9200 doch ich denke die habe ich gekillt :( aber egeal! Mittlerweile eben nurmehr die geforce2 MX am laufen! bekomme nicht mehr als ein flackern raus, es ist zwar was zu erkennen doch schaffe ich es nicht anzuhalten!

hab es schon mit den anleitungen von der ersten seite versucht, mittels PAL-TV.INF und nvidia treiber, und auch schon powerstrip mit allen einstellungen die hier im post waren... hab schon so ziemlich alles versucht nur schaffe ich es leider nicht!?!
was mach ich falsch helft mir ;/

hab nun die einstellungen die von powerstrip original drinn sind ausprobiert, und eben auch alle anderen die ich gefunden habe...
 
Bei dem Kabel funktioniert das mit nVidia Grafikkarten nicht, da diese kein Composite-Synchron-Signal erzeugen können. Man braucht dafür wenigstens die "Transistor-Zusatzschaltung" (siehe die simple Schaltung im ersten Post)zum Mischen der separaten Horizontal- und Vertikal-Synchronimpulse des VGA-Ausganges in ein Composite-Synchron-Signal für ein TV-Gerät. Unabhängig davon fehlt in der "Original-Schaltung" die Pegelanpassung des Synchronsignals (macht die "Transistor-Schaltung" mit dem 680 Ohm Widerstand am Emitter).

Eine MX4xx bekommt man wohl nur mit Powerstrip richtig eingestellt, da in den alten nVidia-Treibern die entsprechenden Timing-Profile noch nicht enthalten sind und die neueren nVidia-Treiber nichtmehr die alten Grafikchips unterstützen.
 
so ein mist...
würde eine andere graka funktionieren? welche ist deiner meinung dafür am besten geeignet? will eigendlich nur mame, nes snes emus laufen lassen, und das eben am tv... kabel muss ich mir eben wieder löten lassen dh mir ists gleich ob ich mir ein neues kabel kaufe oder eine neue graka im ebay kaufe?!
 
Mit dem Kabel ohne "Transistor-Zusatzschaltung" funktionieren die meisten (alle?) ATI Grafikkarten, da man da über Powerstrip das Erzeugen eines Composite-Synchronsignals erzwingen kann. Ansonsten können das noch Matrox Grafikkarten, aber eben keine nVidia Grafikkarten.

Wie auch immer, alle Grafikkarten funktionieren auch mit der "Transistor-Zusatzschaltung", wenn man irgendwie das notwendige Timing der TV-Norm einstellen kann. Von daher ist ein Kabel mit der "Transistor-Zusatzschaltung" universeller einsetzbar. Für jemanden, der so ein Kabel löten kann, ist es nicht viel Arbeit diese "Transistor-Zusatzschaltung" (ein Kleinsignal npn-Transistor gleich welchen Types und die zwei 680 Ohm Widerstände) hinzuzufügen.

Gruß

Rimini
 
hmmm ok hab ja eine ati radeon 9200... vielleicht kann ich sie mit deiner hilfe wieder beleben!
habe im windows man die graka deaktiviert und denn neu gestartet... seitdem ist nichtsmehr... kein bild, weder wenn er startet noch im windows... pc fähr zwar hoch aber eben kein bild mehr und auch keine chance mehr mit vnc zu verbinden. wenn ich nun die nvidia reinhau alles kein problem! hab nun auch schon mal probiert nochmal das originale rom von der graka(ati) drüberzuspielen(hatte ich noch) doch keine änderung... lösungsvorschläge?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh