VGA/Scart-RGB Adapter-Kabel

Da haben wir uns gegenseitig die Posts hier "durcheinander" gebracht.

Gut, wenn man beim Booten kurz den Boot-Screen ansatzweise erahnen kann, wird das Adapter-Kabel schon funktionieren.

Gut, GMA900 kann prinzipiell ein entsprechendes PAL-Timing erzeugen (z.B. unter Windows mit PowerStrip). Die Linuxtreiber müssen natürlich auch die Modeline auch verarbeiten können.

Eine xorg.conf kann ich nicht posten, die VDR-Box benutzt einen FrameBuffer-Treiber unter Linux und arbeitet ganz ohne X. Müsste da mal eine Linux-Installatiion mit X machen, aber überhaupt keine Zeit dafür.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Funktioniert Fantastisch!

Hiermit möcht ich nochmal bestätigen, dass der Betrieb des von Rimini entwickelten Kabels zur VGA/SCART Verbindung mit einer Intel GMA900 i915G GraKa und dem Xorg i810 Treiber NICHT funktioniert (Framebuffer Treiber ohne X habe ich nicht probiert). Der Grund dafür dürfte im i810 Treiber liegen, der die unterstützten Auflösungen/Frequenzen aus dem BIOS bezieht. Viele Anwender dieser GraKa berichten über Probleme mit anderen Auflösungen/Frequenzen als den im BIOS hinterlegten. Mit dem Tools 915resolution unter Linux und dem Parameter -l kann man sich die unterstützten Auflösungen anzeigen lassen und diese auch mit anderen Werten überschreiben. Einige User berichten, dass sie auf diese Art ihre Widescreen Monitore an der i915G (und kompatiblen) konfigurieren konnten. Für die VGAtoSCART Lösung habe ich jedoch dennoch keine funktionierende Konfiguration hinbekommen (und ich wage zu behaupten, mich unter Linux gut auszukennen).

Nun habe ich eine ASUS Extreme AX300SE PCI-E mit ATI Radeon X300SE Chipsatz eingebaut und hatte auf Anhieb Erfolg. Die Video Qualität ist fantastisch! Scharf, brilliant und smooth!

Folgende Einstellungen musste ich in meiner /etc/X11/xorg.conf treffen:

Section "Monitor"
Identifier "TV Monitor"
HorizSync 13.0 - 16.0
VertRefresh 45 - 55
Modeline "720x576" 13.500 720 736 800 864 576 581 586 625 interlace -hsync -vsync
EndSection

Section "Device"
Identifier "RADEON-TVOut"
Driver "radeon"
Option "IgnoreEDID" "true"
Option "BusType" "PCIE"
Option "ForceMinDotClock" "12MHz"
EndSection

Section "Screen"
Identifier "TV Screen"
Device "RADEON-TVOut"
Monitor "TV Monitor"
DefaultDepth 24
SubSection "Display"
Depth 24
Modes "720x576"
EndSubSection
EndSection

Der Schlüssel zum Erfolg war schlussendlich die Option "ForceMinDotClock" "12MHz".

Meine Erfahrungen zum Thema Qualität:
1.) VGAtoSCART von Rimini in Kombination mit der ATI GraKa ergibt die Abstand beste Videoqualität, die ich je gesehen habe. Einzig die Darstellung einer PC Anwendung (z.B. das Menü von MythTV) ist speziell bei kontrastreichen Übergängen (Text zu Hintergrund) etwas flickerig.
2.) TVOUT meiner PVR350: subjektiv ist die Videodarstellung mit Hilfe des TVOUT Ausgangs der PVR350 weniger brilliant. Dafür flickert das MythTV Menü etwas weniger.
3.) Composite TV OUT der ATI RADEON: unakzeptabel

Als zusätzlichen Vorteil der von Rimini entwickelten Lösung betrachte ich, dass ich jetzt alle Features der GraKa inklusive 3D Beschleunigung nutzen kann, was mit dem Composite TV OUT der ATI nicht möglich ist.

DANKE RIMINI!

Liebe Grüße, Michael
 
Zuletzt bearbeitet:
Hi mknappe,

da ist man mal den ganzen Tag nicht zu Hause und du hast, nach dem du dich mit dem i810 Treiber unter Linux rumgeärgert hast, in ca. 1 1/2 Stunden die X300 Grafikkarte eingebaut, die richtigen Einstellungen gefunden und das hier auch noch ausführlich dokumentiert.

Leider liegt es in der Natur eines solchen Forums, dass mehr gefragt wird (meist auch noch, obwohl man hätte die Antwort im Forum finden können), als dass Lösungen beschrieben werden. Deshalb besonderen Dank für deine Mühe.

Wie man im ersten Beitrag nachlesen kann, ist die Grundidee der Schaltungen nicht von mir, ich habe nur versucht, mit vertretbarem Aufwand möglichst alle notwendigen SCART-Signale aus den am VGA-Ausgang zur Verfügung stehenden Signalen zu erzeugen. Nach dem ich auch einige der Grundideen nachgebaut hatte und das mal problemlos funktionierte und dann mal wieder nicht, obwohl es eigentlich hätte funktionieren müssen, hab ich einfach angefangen das ganze mal so vollständig wie möglich zu ergründen. Letzten Anstoß gab dann eine onBoard Grafik-Lösung, bei der am Pin 9 des VGA-Anschlusses keine verwendbaren +5V vorhanden waren. Da musste einfach eine Schaltung her, die die SCART-Schaltspannungen ausschließlich aus den immer zur Verfügung stehenden Synchron-Signalen des VGA-Ausganges gewinnt.

Ich hoffe, dass noch viele, genauso wie "mknappe", die entwickelten Schaltungen nachbauen und damit eine ausgezeichnete Video-Wiedergabe vom PC auf einem normalen TV-Gerät erhalten.

Gruß

Rimini
 
Hi,

ich melde mich auch mal wieder mit einer Vielzahl ungelöster Probleme:
Konfiguration: x1900xt und inzwischen eine geforce 5200.
problem sind wieder die beiden treiber. als erstes habe ich den geforce treiber installiert, danach den omega treiber mit ati tray tool. diese konfiguration hält genau einen bootvorgang, danach stört irgendein ati dienst den geforce treiber, so dass ich auf diese grafikkarte gar nicht mehr zugreifen kann. bei den eigenschaften des desktop kommt die meldung: "der derzeit ausgewählte treiber kann nicht verwendet werden. er wurde für eine frühere version von windows geschrieben... das system wurde mit dem standard vga treiber gestartet...."
weiteres problem: der 60 hz bug, ich kann an der ati karte keine höheren frequenzen einstellen.
den omega treiber verwende ich, da ich am anfang dachte, dass oben beschriebener fehler vom original ati treiber kommt. leider scheint der omega treiber weiterhin das problem mitzuführen.
ansonsten hatte ich es geschafft, mit dem einfachen kabel auf fernseher ein bild darzustellen. das bekomme ich inzwischen auch nicht mehr hin, da ich im geforce treiber zwar in den erweiterten timings die werte einstellen kann, wenn ich dann auf übernehmen drücke, ändert er diese aber teilweise wieder. oben bleibt auch nicht wie auf dem bild dargestellt der 861B modus erhalten, sondern es erscheint wieder "benutzerdef. werte". sehr lästig ist weiterhin, dass das fenster mit den erweiterten einstellungen auf dem fernseher aufgeht, wo ich im moment wegen der falschen einstellungen noch nicht sehen kann. also wieder auf der nvidia eine desktop auflösung einstellen, erweiterte einstellungen aufrufen, monitor kurz umstöpseln, das fenster mit den einstellungen auf den primären desktop ziehen, monitor wieder zurück an die ati, fernseher an die geforce und weiter probieren.

gruß

philipp
 
Zuletzt bearbeitet:
Hi phil23,

ob man die Kombination nVidia GeForce 5200 mit ATI x1900XT überhaupt, wegen der beiden unterschiedlichen Hersteller und deren Treiber, vernünftig installiert bekommt, ist ja eine andere Frage.

Was mich etwas stutzig macht, ist denn in den alten nVidia-Treibern für die GeForce 5200 schon diese Timingeinstellung überhaupt enthalten. Meines Wissens nach wohl nicht und die neueren nVidia-Treiber sind erst ab den 6000er Chips verwendbar, so dass man wohl PowerStrip bemühen muss, um die Timings bei der 5200er richtig einstellen zu können. Das müsstest du mal mit einer Neuinstallation von Windows und erstmal ohne die ATI 1900er hinbekommen. Das sollte eigentlich so möglich sein, denn mit noch älteren MX400er Grafikkarten geht das auch. Der nächste Schritt wäre dann die ATI 1900er einbauen und schauen, was passiert, dann erst die ATI Treiber installieren und wieder sehen, was passiert.

Wie gesagt, bin mir ziemlich sicher, das eine nVidia GeForce 5200 alleine geeignet ist.

Mit der Installation verschiedener Treiber-(Versionen) und den Einstellungen der Timings, insbesondere mit PowerStrip, bekommt man schnell das gesamte Grafik-Treiber-System ziemlich "durcheinander" und da hilft dann im schlimmsten Fall nur eine komplette Neuinstallation von Windows. Hab ich am anfang meiner Experimente auch vielmals so machen müssen, um überhaupt die dargestellten Erkenntnisse gewinnen zu können. Da steckt wirklich viel Arbeit und Zeit drin.

Aber schön zu hören, dass es schonmal mit der 5200 irgendwie funktioniert hat.

Gruß

Rimini
 
treiber für die nvidia habe ich einfach den neuesten genommen, der soll für fast alle modelle gehen, unter anderem auch für die 5200. da ich das bild ja schon mal hinbekommen habe, auch zusammen mit der x1900, werde ich es wohl irgendwann wieder zum laufen bringen.
bzgl. 60 hz bug. 1360x1024 hat ihn, 1400x1040 nicht. sehr seltsam.
die neuinstallation von windows habe ich bis jetzt immer mit driver cleaner umgangen. der killt relativ zuverlässig alle graka treiber und man kann wieder bei 0 anfangen, ohne das system aufwendig neuzuinstallieren. bei inzwischen schon 10 installationsorgien hätte ich auch schon längst die sache an den nagel gehängt, wenn ich jedesmal windows neu installieren müßte.
 
Stimmt, die neuen Treiber von nVidia unterstützen jetzt wieder alle Chips, bei meinen Experimenten war das noch nicht so.

Denke auch, wenn das schonmal lief, wist du das auch wieder hinbekommen. Mach am besten dann von der Installation ein Image, dann kann man das ganz einfach wieder herstellen, wenn mal, warum auch immer, was an der Konfiguration nichtmehr funktioniert.

Ich hab natürlich auch nicht immer ein komplettes Windows neuinstalliert, sondern nur ein Image, das gleich nach einer Windows-Installation noch ohne spezielle Grafik-Treiber erstellt wurde, wieder hergestellt. Geht von einer einer Disk viel schneller.
 
hallo Rimini

Erstmal ein großes Lob für diesen Thread, und die Mühe die Du dir mit dem Adapter gemacht hast.

Hab mal eine Frage and Dich.

Ist es möglich einen Adapter zu löten, der das Scart Videosignal zuverlässig in ein D-Sub Signal macht?


edit:
Soll dann dazu dienen, dass ich meine Playstation anschliessen kann.
 
Zuletzt bearbeitet:
was soll der adapter denn machen?
willst du einen dvd player an einen monitor anschließen?
 
Hi Ewald,

wenn ich das richtig verstehe, willst du ein Gerät (z.B. Playstation), das einen SCART-Ausgang hat, an ein Gerät mit einem VGA-Eingang (z.B. PC-Monitor) betreiben.

Mit "einfachen" Mitteln geht das nur, wenn an dem SCART-Ausgang RGB-Video-Signale vorhanden sind und man dort auch Timings für einen VGA-Monitor einstellen könnte, was bei Consolen im allgemeinen nicht möglich ist. Insbesondere die Zeilenfrequenz ist das Problem, denn ein VGA-Monitor hat da eine untere Grenze bei ca. 32kHz und ein der TV-Norm entsprechendes Video-Signal am SCART-Anschluss hat eine Zeilenfrequenz von ca. 16kHz. Also müsste man praktisch die Zeilenfrequenz in etwa verdoppeln, was technisch natürlich möglich wäre, aber eben nicht so einfach, leider.

Gruß

Rimini

P.S.: Habe am Ende des ersten Posts angefangen, den realen Aufbau der von mir gefertigten Adapter mit Bildern zu dokumentieren.
 
Ok, gut zu wissen. Das Thema hat sich dann erledigt.

Dank Dir Rimini
 
Hallo,

die bebilderte "Anleitung" am Ende des ersten Posts zur Anfertigung des VGA-SCART/RGB Adapter-Kabels ist soweit fertig.

Schönen Sonntag-Abend

Rimini
 
Der Unterschied ist schnell erklärt:

Dieses Kabel bei den Schweden, wie auch viele andere im Internet zu findende Schaltungen basiert auf der "Grundidee" von http://www.idiots.org.uk/vga_rgb_scart , wie das eingangs auch erwähnt wurde.

Diese "Grundidee" setzt voraus, dass die Grafikkarte ein Composite-Synchronsignal erzeugen kann, was einige ATI basierende auch können, aber eben nicht eine beliebige Grafikkarte. Will man eine universelle Lösung, muss man also eine Mischer-Schaltung für die getrennten Horizontal- und Vertikal-Synchronsignale des VGA-Anschlusses der Schaltung hinzufügen.

Außerdem wird bei der "Grundidee" die am Pin des VGA-Anschlusses optional vorhandenen +5V Spannung zur Erzeugung der praktisch immer notwendigen RGB-Schaltspannung am SCART Pin 16 und der AV-Schaltspannung am SCART Pin 8 verwendet. Aber eine +5V AV-Schaltspannung bei modernen 4:3 TV-Geräten, die auch einen 16:9 Modus beherrschen, dazu, dass diese in den 16:9 Modus schalten. Um sicher einen 4:3 Modus einstellen zu können muss die AV-Schaltspannung nominal 12V (ca. 9,5...12V zulässig) betragen. Zusätzlich erschwerend kommt noch hinzu, dass einige Grafikkarten die optionalen +5V nicht am Pin 9 des VGA-Anschlusses zur Verfügung stellen, ist eben eine optionale Beschaltung des VGA-Ausganges.

Deshalb wird in der universellen Schaltung mit Hilfe der integrierten Schaltung aus den getrennten Synchronsignalen das Composite-Synchronsignal erzeugt und zusätzlich ausschließlich aus den zur Vefügung stehenden Synchronsignalen die RGB-Schaltspannung mit ca. 1,66V (auf maximal 2,7V durch die Z-Diode begrenzt), die Betriebsspannung für die gesamte Schaltung und durch Verdopplung bzw. Verdreifachung dieser Betriebsspannung eine umschaltbare AV-Schaltspannung von ca. 7,5V für den 16:9 Modus bzw. von ca. 11,5V für den 4:3 Modus gewonnen.

Dieser Aufwand ist nicht bei allen denkbaren Kombinationen von Grafikkarten und TV-Geräten nötig, aber für eine möglichst universelle und problemlose Schaltung notwendig.
 
Ich habe mir den Thread jetzt nicht durchgelesen und frage deshalb einfach mal drauflos: Hast du mal versucht eine Platine zu ätzen und darauf dann den Adapter aufzubauen? Die größe vom Adapter ist mir rel. egal deshalb darf die auch ein paar cm größer sein (mehr als 2 Layer will ich allerdings nicht verwenden).

Falls nicht muss ich mich wohl selbst schnell dransetzen ...
 
Hi buyman,

schön, dass noch jemand was selber machen will.

Im ersten Post am Ende ist eine prinzipielle Layout-Darstellung ja vorhanden. Den kompletten Adapter könnte man natürlich auch auf einer selbstgemachten Platine aufbauen, wobei man wohl eine zweiseitige Leiterplatte bräuchte, wenn man nicht die Kabel einfach nur dranlöten will, sondern Buchsen nimmt. Wenn man eine SCART-Buchse statt des Steckers nimmt (SCART-Stecker zum Einlöten auf Leiterplatten gibt es wohl nicht), muss amn beachten, dass statt Pin 20 der Pin 19 für das Composite-Synchronsignal und statt der Pins 2 bzw. 6 die Pins 1 bzw. 3 für die Audio-signale verwendet werden müssen. Gerade weil es offensichtlich keinen SCART-Stecker für Leiterplattenmontage gibt, hab ich das eben, wie im ersten Post am Ende dargestellt, gemacht.

Gruß

Rimini
 
RS Bestell-Nr. 474-704 :)
(nur ein Beispiel, schnell gesucht)

Danke für die Hinweise - wenn du willst lass ich dir die EAGLE-Dateien zukommen wenn ichs fertig hab ;)


€: Ich sollte genauer lesen - hab leider auch keine Stecker zur Printmontage gefunden. Das ärgert mich jetzt irgendwie, allerdings wäre es wohl meist nicht möglich die Platine dann direkt an der SCART-Buchse des Fernsehers zu befestigen (Platzmangel), also kann ich mit der Lösung ganz gut leben.
 
Zuletzt bearbeitet:
Ja, kann man mit leben und hatte auch mal überlegt, so ein kurzes Adapter-Kabel mit VGA-Stecker, eventuell 3,5mm Stereo-Klinken-Stecker für Audio und dann SCART-Buchse zu machen und dem "Anwender" dann zu überlassen, ein entsprechend langes SCART-Verbindungskabel zum TV-Gerät zu benutzen. Aber irgendwie finde ich diese Adapter (insbesondere diese Componenten-Video Adapter mit dem kleinen 7- oder 9-poligen MiniDIN-Stecker bei einigen Grafikkarten) mit den kurzen Kabelstückchen dran etwas "hilflos". Oft reicht dann schon das Gewicht der angesteckten Kabel, damit dann irgendwann der Adapter nichtmehr richtig steckt und Probleme verursacht.

Exportiere einfach Schaltplan und Board-Layout aus Eagle, lade es in irgendeinen "Bilderdienst" hoch und poste das dann hier mit den entsprechenden Links zu den Bildern. Da haben dann alle was von, selber werde ich keine Leiterplatte machen oder wollen. Ich bleibe bei meiner Löterei, auch wenn das eine ziemliche "Quälerei" ist und relativ lange dauert.

Schönes Wochenende und viel Erfolg beim "Layouten".
 
hm also ich habe mir jetzt auch so ein adapterkabel gelötet, leider bleibt bei mir der Fernseher schwarz...

er kann RGB und erkennt auch wenn ein Gerät angeschlossen ist, ich habe ein 6150Chipsatz MB und dort auch unter Windows die Inf Datei installiert und die Timings per Nvidiatool angepasst.
Hinzugefügter Post:
also man sollte auch seinen Fernseher auf RGB Signal stellen, dann kommt erstmal wenigstens was an, aber leider habe ich das PC Signal stark gestaucht und dann wackelnd bestimmt 15 mal auf dem Fernseher...

update 2

jetzt gehts, keinen plan warum, denke mal an den Einstellungen hat es gelegen, wenn man einen 16:9 Fernseher hat und ich die Auflösung unter windows von 720 ändere ist das Bild wieder tausendfach und flackernd und verzerrt...
 
Zuletzt bearbeitet:
so update 3, habe es so hinbekommen, beim 4:3 Format am Fernseher ausgewählt haut das mit dem Eingestelltenbild ca. hin.
Wenn ich aber auf 16:9 den Fernseher nehme und das Bild auf 1024 am PC stelle (also lade Nvidia voreinstellungen 576er und schreibe dort beim Wert 576 halt 1024 rein) fehlt mir links vom Bild recht viel, muss sicher noch irgendwelche anderen Werte ändern, aber keinen plan was genau.

Gruß Micha
 
Gut, die Werte für ein 16:9 TV-Gerät fehlen ja noch, sorry.

Die Verfahrensweise ist aber analog zu dem bei 4:3. Man nehme eine 1024x576 PAL/HDTV-Auflösung (gibt es diese im nVidia-Treiber, bei PowerStrip ist diese vorhanden) und achte darauf, dass die Zeilen- und Bildfrequenzen stimmen. Könnte auch sein, dass man bei nVidia in der Monitor-INF alle Werte mit 720 in 1024 ändern muss und diese INF dann eben als "Treiber" neu zuweisen muss.

Habe gerade heute ein System mit nVidia Grafik "ausgeliehen", um die Timings für 16:9 mit 1024x576 nachtragen zu können. Kommt also die nächsten Tage, wie auch weitergehende Beschreibung der Timing-Einstellung bei nVidia über den Treiber und mit PowerStrip bei ATI. Nochmals Entschuldigung, dass dies bisher stark vernachlässigt wurde.

Gruß

Rimini
 
hey Rimini kein Problem, hatte deine inf mal mit 1024 die Werte geändert, hatte aber irgendwie keine Änderung... hm
 
Die INF alleine macht keine Änderung der Auflösung, die muss man schon entsprechend einstellen. Eine 1024-INF könnte nötig sein, aber vielleicht auch nicht, das weiß ich jetzt noch nicht genau.

Was unterschidet überhaupt die Auflösungen 720x576 und 1024x576 mit Timingwerten, die der PAL-Norm entsprechen müssen?

Ganz einfach alle Timing-Werte in vertikaler Richtung müssen gleich sein, sind ja gleiche Zeilenanzahlen und da kann/darf man auch nichts dran ändern.

In der horizontalen Richtung muss einfach nur der Pixel-Takt soweit erhööht werden, dass eben 1024 Pixel in der selben Zeit von ca. 52µs dargestellt werden können. Bei 720er Auflösung liegt der Pixel-Takt bei ca. 13,5...14,0MHz (rechnerisch 720/52µs=13,85MHz) und bei 1024er Auflösung bei ca. 19,5...20MHz (rechnerisch 1024/52µs=19,69MHz). Gleichzeitig müssen mit der Erhöhung der Auflösung und des Pixel-Taktes alle anderen Timing-Werte in horizontaler Richtung erhöht werden, denn letztlich muss die Zeilenfrequenz wieder genau 15,625kHz betragen, was einer Gesamtzeilenlänge von 64µs entspricht und die Länge und Lage des Zeilen-Synchronimpulses muss auch zeitlich gleich bleiben. Da alle Timing-Werte in der horizontalen nicht direkt zeitlich in µs eingestellt werden können, sondern nur als Anzahl der Pixel-Takte, die zur Erreichung der Zeit nötig sind, muss man eben die Werte entsprechend erhöhen, da ja der Pixel-Takt höher ist, aber die Zeiten gleich bleiben sollen.

Vielleicht ist das soweit verständlich, auf die Schnelle, dargestellt, dass amn eine Vorstellung hat, was man wie einstellen muss.
 
Wie sieht's denn mit der Integration des EDID-EEPROM in die Schaltung aus?
 
Wenn man eine SCART-Buchse statt des Steckers nimmt (SCART-Stecker zum Einlöten auf Leiterplatten gibt es wohl nicht), muss amn beachten, dass statt Pin 20 der Pin 19 für das Composite-Synchronsignal und statt der Pins 2 bzw. 6 die Pins 1 bzw. 3 für die Audio-signale verwendet werden müssen.

Dazu habe ich noch folgende Frage: Kreuzt ein Scart Kabel die Audioverbindungen aus (also geht 1 & 3 auf 2 & 6, und 19 auf 20)? Ansonsten wär die Änderung ja nicht nötig (hab mich nur wenig mit der SCART-Belegung und dem Standard beschäftigt bisher.

€: Ok, hab mir grade den Belegungsplan angesehen - kann ja gar nicht anders sein :d
Nochmals danke für den Hinweis, das hätte ich übersehen ;)


Meine aktuelle Lösung sähe 2 Buchsen vor (1x SCART und 1x HD15). Dann brauche ich halt 2 Kabel um ein Gerät anzuschließen.
 
Zuletzt bearbeitet:
@ Rimini

Da du mir auf meine letzte PN an dich nicht geantwortet hast, muss ich jetzt hier leider nochmals nachfragen.

Von den zwei bestellten (und im voraus bezahlten) Kabeln habe ich bisher nur eines erhalten (ich weiss, bei dir kam einiges dazwischen), aber wann kann ich mit dem zweiten Kabel rechnen?

Antworte bitte per PN.
 
Wie sieht's denn mit der Integration des EDID-EEPROM in die Schaltung aus?

Hab da viel experimentiert, aber eine richtige Lösung gibt es wohl nicht. Das große Problem ist es, dass ein TV-Gerät kein/e VESA-Timing/Auflösung kann, das/die man sinnvoll als Standard-Auflösung in den EDID-Informationen eintragen könnte. Wenigstens ein/e VESA-Standard-Timing/Auflösung ist aber offensichtlich unbedingt in den EDID-Informationen notwendig, damit die ATI-Treiber die EDID-Daten überhaupt berücksichtigen. Bei den nVidia-Treibern ist es dagegen vollkommen egal, was in den EDID-Informationen steht.

Habe da noch die Idee gehabt, als "Standard-Auflösung" dann eben einfach eine non-interlaced Auflösung von 800x600@50Hz mit ca. 32kHz Zeilenfrequenz (ergibt dann die "Doppelbilder") und die PAL-Timings als weitere mögliche einzutragen, aber das hilft bei ATI auch nicht. Dann kann man überhaupt nichtmehr die PAL-Timings (auch nicht mit PowerStrip) dauerhaft einstellen, beim nächsten Booten sind die PAL-Timing-Einstellungen nichtmehr aktiv und es werden wieder "Doppelbilder" angezeigt.

@Klötenbeisser
Deine PN ist in den Wirren nach meinem Unfall "untergegangen", aber natürlich bekommst du das zweite Kabel. Es ist das "Foto-Modell" und das bringe ich dann morgen mit den dazugehörigen anderen Kabeln zur Post. Bitte vielmals um Entschuldigung.

Habe nochmals in meine Liste mit den bezahlten Bestellungen geschaut und das sollte dann wirklich das letzte noch nicht verschickte Kabel gewesen sein.

Gruß

Rimini
 
Habe mit einem Kumpel zusammen das Kabel aus der schwedischen Anleitung nachgebaut. Folgende Erkenntnisse:

Auf seinem Laptop (Ati XPress 200M) läuft es mit den Timings von der Schwedenseite. Das Bild ist scharf, aber in die Beite gezogen, links und rechts fehlt etwas da der Fernseher automatisch in den 16:9-Modus schaltet.
Mit Media-Player Classic kann er aber einfach das Bild richtig einpassen und somit den fehlenden TV-Out des Laptops ersetzen.

Auf meinem Laptop mit Radeon 9600 lief es etwas besser. Die Timings von der Schwedenseite brachten keinen Erfolg, dafür die von Rimini vorgeschlagenen (und das Häkchen bei Composite Sync gesetzt) Der Fernseher schaltet zwar auch in den 16:9-Modus, aber ich kann ihn per Fernbedienung wieder in den 4:3 zurückversetzen.

An meiner Geforce 8800GTS erhalte ich beim Booten zwar ein Bild (allerdings zur Unkenntlichkeit verzerrt aufgrund falscher Timinigs), aber ich bin ziemlich ratlos wie ich die richtigen Timings einstellen soll. Rivatuner läßt mich keine angepasste Timings auswählen, die Inf von Rimini wird im Gerätemanager nicht akzeptiert (habe Windowx XP x64) wenn ich damit den "Default Monitor" der erkannt wird ersetzen möchte und die gezeigt Funktion für ein Pal-HDTV-Gerät finde ich im neuen Control Panel nicht.
 
Hier mal der Plan der Schaltung (Platinenlayout folgt morgen Vormittag wenn ich Zeit hab):



Anschlüsse: SCART, 2xCinch (L+R Audio), 3,5mm Klinke, S-Video

Cinch und Klinke sind einfach zusammen geshaltet :rolleyes:


Falls ich einen Fehler eingebaut hab: Bitte sagen - das war dann keine Absicht :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh