Radeon 9700Pro vs. Gf4Ti4200 in PCD 1/03

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gut, mal schauen ob ich dazu was finde. Ich hab aba leida nicht alle Ausgaben :(...

Wenn du nochwas findest oda dir einfällt wo ich das nachlesen kann, sag mir bescheid <img border="0" title="" alt="[Wink]" src="wink.gif" /> .
 
hui, hier gehts ja richtig ab bei euch.

@madnex

marc hatt mit seiner behauptung schon recht, allerdings merkte ich es kaum oder garnicht wenn die framerate unter der bildwiederholungsfrequens des monitors liegt. wenn sie aber höher ist sieht das schon anders aus.
 
Zum Thema DVD-Wiedergabe am PC hab ich was gefunden...

</font><blockquote><font size="1" face="Verdana, Helvetica, sans-serif">Zitat:</font><hr /><font size="2" face="Verdana, Helvetica, sans-serif">...PAL-Fernseher bringen nicht 25 "Vollbilder" pro Sekunde auf den Schirm, sondern 50 "Halbbilder" - erst alle Bildzeilen mit ungerader Nummer, dann alle Bildzeilen mit gerader Nummer, Im Abstand einer 50stel Sekunde. Heutige Computermonitore beschreiben den Bildschirm dagegen "progressiv": Der Elektronenstrahl läuft Zeile um Zeile von oben nach unten. Auf dem Monitor kann man folglich nur Vollbilder darstellen - nur muss man die irgendwie aus den Halbbildern erzeugen. Die einfachste Lösung dafür scheint, zwei zusammengehörige Halbbilder zu verweben ("Weave"): Zeile 1 aus dem ersten Halbbild, Zeile 2 aus dem zweiten, Zeile 3 wieder aus dem ersten. Die beiden liegen aber bei PAL 1/50 Sekunde, bei NTSC 1/59,94 Sekunde auseinander und zeigen deshalb verschiedene Bewegungsphasen. Ein zusammengeschachteltes Vollbild besitzt deshalb unschöne Kammstrukturen aus horizontalen Linien. Ohne solche Kämme, aber ebenfalls mit unschönene Nebeneffekten arbeitet das Verfahren Bob. Es verdoppelt alle Zeilen eines Halbbilds, um ein Vollbild zu erzeugen. Obendrein wird jedes zweite Bild um eine Pixelzeile nach unten verschoben. Bob lässt das Bild unschärfer erscheinen; oft ist ein vertikales Zittern sichtbar...

...Zum Glück enthalten die meisten DVDs keine Fernsehproduktionen, sondern Kinofilme. Als "richtige" fotografische Aufnahmen kennnen sie keine Halbbilder, sondern nur Vollbilder - dummerweise aber nur 24 pro Sekunde statt 25 oder 29,97...

...Man lässt den Film einfach mit 25 statt 24 Bildern pro Sekunde laufen...

...Auf der DVD ist der Kinofilm damit mundgerecht für Fernsehwiedergabe aufbereitet - entweder für PAL oder für NTSC. Ein PC-Player, der DVD auf den Monitor bringen will, muss erst wieder aus den Halbbildern Vollbilder erzeugen. Das gelingt allerdings - zumindest in der Theorie - Perfekt, denn der Player kann je zwei Halbbilder per Weave wieder zu einem Vollbild vereinen. Denn anders als bei einem echten TV-Signal, wo die Halbbilder um Sekundenbruchteile auseinander liegen, zeigen die zusammenghörigen Halbbilder der Kinofilm-DVD die Szenen zum selben Zeitpunkt...

...Der Monitor zeigt jedes der Bilder nicht nur einmal auf den Schirm - das würde unerträglich flimmern -, sondern behält seine übliche Bildwiederholrate bei. Öfters hört man die Empfehlung, für ein optimales Ergebnis am PC-Monitor als Bildwiederholfrequenz ein ganzzahliges Vielfaches von 24 Bildern pro Sekunde zu wählen, zum Beispiel 3*24 Hz = 72 Hz oder 4*24 Hz = 96 Hz. Aber inzwischen sind meist nur noch Vielfache von 5 Hz in den Treibern vorgesehen. Außerdem gelten die 24 Bilder pro Sekunde nur für NTSC-kodierten Kinofilm.
In der Praxis scheint es deshalb sinnvoller, einfach am PC die höchstmögliche Bildwiederholrate einzustellen. Dann erscheinen die Bilder zwar nicht exakt gleich lang auf dem Bildschirm, aber der Unterschied fällt nicht auf. Die PC-basierenden DVD-Lösungen synchronisieren sich automatisch mit der gewählten Bildwiederholfrequenz: Sie schalten nur in genau dem Augenblich auf das nächste Bild, in dem der Elektronenstrahl unsichtbar von unten nach oben zurückläuft.</font><hr /></blockquote><font size="2" face="Verdana, Helvetica, sans-serif">"Der Unterschied fällt nicht auf". Auch beim Zocken fällt mir kein Unterschied auf <img border="0" title="" alt="[Wink]" src="wink.gif" /> !!! Es kann ja sein das du da irgendwas merkst. Vielleicht liegts auch an der Empfindlichkeit von dir oda von wenigen Menschen, das will ich auch garnicht bestreiten. Nur kann man nicht davon ausgehen (mich eingeschlossen), dass alle anderen es so empfinden.

Aber deswegen nur in 60 Hz zu Zocken, finde ich schon ein bischen heftig <img border="0" alt="[sfresse]" title="" src="graemlins/sfresse.gif" /> :) ...

Ich denke mal es empfindet jeder ggf. anders. Auch wenn es so ist wie du sagst, macht es trotzdem manchen Leuden nichts aus oda merken es noch nicht mal...

Außerdem, gehe ich mal davon aus, dassGrakas beim Rendern etwas anders arbeiten. Ggf. auch etwas besser angepasst an die Situation. Genau weiß ichs jetzt aba auch net...
 
Du kannst das ganz einfach testen: Schnapp Dir ein Spiel, bei dem Du defenitiv weißt, daß es als Minimumframerate 60fps schafft, stelle auf 60hz und drehe Dich in dem game um die eigene Achse. Dann machst Du dasselbe nochmal mit 100hz und vergleichst.

Ich wette DANN siehst Du den Unterschied. *gg*

Oder probier es in der Praxis in EGO-Shottern oder Rennsims aus. Du wirst sehen, daß Du erfolgreicher spielst.

@Fragleader
Leider funktioniert das nicht. Im 3DM2001 ist ja sowas ähnliches eingebaut aber leider kann man es nicht erzwingen, so daß dann ganz lahmarschig die Framerate kurz wieder auf 100 geht und dann wieder zurück zur 50 wandert.

Nein, nein, ich wäre dafür, daß Microsoft eine Erzwingung auf hz/2=Framerate in DirectX endlich einbaut oder die Treiberprogrammierer von ATI und nVidia das tun.

Dann würde selbst ich flimmerfrei in 120hz spielen, hätte meine 60fps und wäre glücklich. :)
 
Also, ich habs mir nochmals durch den Kopf gehen lassen. Manchmal muss ich ne Nacht drüber schlafen bevor ichs wirklich kappiere <img border="0" alt="[sfresse]" title="" src="graemlins/sfresse.gif" />

So wie du es beschreibst scheints logisch zu sein, d.H. technisch gesehen gebe ich dir Recht :) ...

Ob man den Unterschied allerdings merkt, ist eine andere Frage <img border="0" title="" alt="[Wink]" src="wink.gif" /> ...

Es wäre aba doch besser wenn der Graka Treiber oda DX die FPS z.B. bei 90 Hz auf 30 beschränken würde und somit eine bei den meisten Games feste Frequenz gewährleistet. So wäre mit aktiviertem VSync (eigentlich wird der VSync dadurch ja praktisch überflüssig) eine perfekte Syncronisation zwischen FPS und Monitor möglich.

Also ich denke nicht dass das so ein Problem darstellen würde die Frames durch die Graka auf eine gewisse Frequenz zu beschränken und dann mit dem Monitor zu Syncronisieren. So wie halt beim Fernseher nur mit dem Unterschied, dass es einmal nicht 2 Halbbilder sind sondern jeweils 1 Vollbild und anstatt 25 Bilder/Sekunde sind es dann halt z.B. 30 Bilder/Sekunde bei 90 Hz... Natürlich müsste dann bei jeder Hz Frequenz die FPS Beschränkung durch den Treiber angepasst werden... wo liegt da eigentlich das Problem ???

<small>[ 12. Dezember 2002, 12:57: Beitrag editiert von: Madnex ]</small>
 
Also bei 60hz könnte ich auch kaum zocken, da mir das flackern so extrem auffällt. Ich bin eigentlich auch jemand, der jegliche Verzerrungen, verwischungen etc. Wahrnimmt, aber so extrem, wie marc es immer deutet, habe ichs noch nie gemerkt. Ausnahme ist da UT2K3, wo trotz meiner letzten Gf4Ti4400/4200 eine Art Nachziehen des Bildes bemerkbar war, was mich dann doch gestört hat! Das lag aber eher daran, das ich dann(nach marcs Theorie)immer nur ca. 50-80 FPS hatte und bei 85hz BWH es nicht ganz gepasst hatte.
Aber mit 60hz könnte ich keine Minute aushalten, da würden sofort meine augen anfangen zu tränen(das passiert mir bei extremen flackern leider...)

P.S. Zum Thema TV und 50hz oder die klassiker wie C64:
Also beim Fernseher bemerke ich nur sehr elten die 50hz und auch beim C64 konnte ich nie über flimmern etc. klagen(hab ja wieder einen)!
Also TV und PC-Monitor muss man strikt trennen, auch wenn das zukünftig wohl ineinander zusammenläuft, wenn mal in 10-20 Jahren TFT´s, Plasmabildschirme etc. Satndard werden(eher nicht, denn dafür sind die derzeit von otto-Normal-Bürger nicht bezahlbar und technisch noch nicht so ausgereift!)

also Fazit: Beim Computer kann ich Marcs Theorie in gewisser Weise nachvollziehen, wobei dies bisher nur sehr selten aufgefallen ist(bei ca. 2 Games), ich aber die 60hz-Geschichte wegen meinen Augen nicht nutzen kann um es zu bestätigen.
Deswegen hab ich früher wohl nur selten am PC gesessen zu 14"-Zeiten*g*
Aber am TV ist das eine andere geschichte...

Cu
 
Hi,

also, mit 60 Hz kann ich auch nicht Zocken/Arbeiten. Da gehts mir fast so wie dir. Mir tränen zwar nicht die Augen aber ich bekommen dadurch Kopfschmerzen...

Ja, bei UT2003 is mir das auch aufgefallen. Deswegen zocke ich es wohl auch nicht...

Wie kommst du jetzt eigentlich auf Fernseher ??? Weil die alten Zeiten (Amiga, C64) von Marc angesprochen wurde ???
 
Jep! Also ich habe diesbezüglich darauf anspielen wollen, Marcs bemerkung(Deutung: Damals war ein Flimmern gleichermassen mit heutigen 60hz vergleichbar) zu wiedersprechen, da ich dies nicht nachvollziehen konnte(damals) oder selbst heute kann.

Als ich vor ca. 3 Monaten Commando am TV gezockt hab, wars jedenfalls nicht am flimmern wie bei 60hz oder vergleichbar alten Monitoren.

cu
 
@Marc
ich hab mir mal weiter Gedanken über das Thema gemacht und würde gerne mit dir darüber diskutieren...

Also, wenn die Graka z.B. bei 90 Hz genau 30 FPS (nur als Beispiel) schafft, wird jedes einzelne Bild 3x vom Monitor refresht bevor das nächste ankommt. Wenn es allerdings 30 FPS bei 100 Hz sind und der VSync ist deaktiviert, wird auch jedes Bild vollständig 3x vom Monitor refresht. Das 4. mal allerdings nur Teilweise. Denn sobald das nächste fertig gezeichnet ist und gesendet wird, wird mitten im Refreshvorgang das neue reingeschoben. So entsteht nach meiner Meinung auch diese Abrisseffekte. Wenn allerdings der VSync aktiviert ist, wartet die Graka bis der 4. Refreshvorgang abgeschlossen ist und schickt dann erst das nächst Bild. Dadurch würden sich allerdings die FPS auf 25 reduzieren, auch wenn die Graka mehr kann. Es wird ja auch überall gesagt, dass bei aktiviertem VSync die Graka mit dem schicken des neuen Bildes abwartet bis der Monitor soweit ist, d.H wieda anfängt ein Bild aufzubauen...

Nach meiner "Theorie" würde deine Aussage nur bei dekativiertem VSync zutreffen... :rolleyes:

Natürlich schwanken die FPS normalerweise extrem. Bei aktiviertem VSync werden sie allerdings begrenzt. Ich hab da was gefunden, das du dir mal anschauen solltest. Es ist zwar, finde ich, anfangs total falsch erklärt (THG halt :d ), aber die Messungen sind sehr interessant !!!

Danach werden nämlich bei aktiviertem VSync die FPS doch auf den größt möglichen Teiler der Hz Freqeunz des Monitors beschränkt... zumindest wird es versucht <img border="0" title="" alt="[Wink]" src="wink.gif" /> .

<a href="http://www.de.tomshardware.com/graphic/98q4/981007/tnt-vs-voodoo-01.html" target="_blank">Die Bedeutung von "Flip at Vertical Retrace" oder "VSYNC" </a>

Was hälst du davon (von der Messung meine ich) ??? Die Erklärung oben ist nur eine Theorie von mir und heißt nicht das es auch so ist !!! Trotzdem interessiert mich deine Meinung :) ...

<small>[ 13. Dezember 2002, 20:26: Beitrag editiert von: Madnex ]</small>
 
"Versuchen" ist genau der richtige Ausdruck, denn wenn man es mal beobachtet, was die Grafikkarte bei 120hz und einer kompexen Szene versucht, dann sieht das folgendermaßen aus->

120fps, 80, 100, 70, 90, 60, 60, 60 (jetzt könnte man fast denken...), 120, 80, 70, 60, 60, 120, 120, usw. usw.

Immer wieder wird versucht, ob es nicht dOCH möglcih ist, die 120fps zu halten!! Totaler Schwachsinn, was die Treiberprogrammierer da machen.

Also, eine Erzwingung auf in diesem Falle 60fps, wäre das einzig vernünftige.

Und zu dem alten THG-Artikel: Oh Mann, zuersteinmal hat der dauernd VSync OFF und VSync ON verwechselt und die Tabellen sehen auch äußerst merkwürdig aus.

Entweder hat der da was falsch gemacht oder die ollen Treiber (zumindest bei nvidia) haben das nicht gebacken gekriegt.

Neee, halt, stimmt..das Spiel Expandable war bei mir dmals immer auf der Hälfte der Frequenz. Warum das nicht in andern Spielen auch gemacht wird, weiß ich nicht.
 
Ja, der hat das immer verwechselt <img border="0" alt="[Laugh]" title="" src="graemlins/laugh.gif" /> .

Aba was sagt du denn zu meiner Theorie <img border="0" alt="[sfresse]" title="" src="graemlins/sfresse.gif" /> ???

<small>[ 14. Dezember 2002, 11:57: Beitrag editiert von: Madnex ]</small>
 
Also, jetzt bin ich ein Stückchen weita mit meiner Überlegung :d .

Während die Graka auf das Ende des 4. Refreshs wartet (angelehnt am Beispiel von oben), hat sie ja bereits das Bild fertig gerendert. Das würde bedeuten, wenn sie nun endlich das Bild abschickt, ist es nicht mehr aktuell. Die Bewegung ist in der kurzen Zeit ja fortgeschritten, wenn auch minimal. Das könnte wiederum zu dem Effekt, den du meinst, führen. Allerdings nur wenn die FPS nicht auf einen Teiler der Bildwiederholungsfrequenz des Monitors beschränkt wird, bzw. diese nicht 1:1 zueinander sind.

Das würde aba wieda bedeuten, dass es bei abgeschaltetem VSync nicht so is, da ja jedes Bild sofort geschickt wird. Es entstehen zwar Abrisseffekte aba die Bilder sind alle aktuell !!!

Liege ich da so falsch ???
 
ajo

verwischeffekte unter 60 fps???
und spielen mit 60hz ?
gute nacht sehkraft

so long
thornhill

<small>[ 16. Dezember 2002, 14:03: Beitrag editiert von: thornhill ]</small>
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh