hardcorevibes
Enthusiast
*flame* *hust*
Ein Kino hat 24 FPS...mancher Zeichentrick nur 17FPS...das muss ja die Hölle für dich sein.
Ein Kino hat 24 FPS...mancher Zeichentrick nur 17FPS...das muss ja die Hölle für dich sein.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Omg jetzt fangen wir hier an, jeder film auf einem 1chip dlp projektor ist auch eine qual ja, so ists.
@eagle du hättest sogar fast recht, wenn das gehirn über ne sync buchse mit dem pc verbunden wäre
Ich als 100%iger "Nuetralist" würde auch zu nVidia raten. Ist nunmal so, dass nVidia im Moment die bessere Wahl ist. Daran hat die 2900XT ja leider auch nichts geändert.
Und wenn der Threadersteller nicht auf OC steht, sollte es in meinen Augen auch eine GTX sein.
Achja, HD 2900XT 1GB braucht bei Vollast 218W und die GTX "nur" 155W (Quelle Alternate ) Kommt zwar nicht soganz an die PS3 ran, aber viel ist es dennoch.
Solange ATI kein Konkurenzprodukt im obersten HighEnd Markt hat, dann kann NV mit den Preisen machen was se wollen...
Oh, sry Bei Computerbase wird das mit dem Stromverbrauch nochmals "korrigiert". Das gesamte Testsystem zieht da bei Idle um die 240W.
Dennoch ein stolzer Wert würde ich sagen, und dann noch trotzdem mehr als die GTX.
Versuch bitte mal mit ausgeschaltetem Bildschirm Windows zu starten. Die Skalierungsprobleme hängen mit den EDID Infos, die per DDC übertragen werden, zusammen. Deswegen klappt es auch mit manchen Monitoren und bei manchen hakt es.Allerdings hab ich seit der 8800 Probleme mit bisher allen Treibern. Die Skalierung lässt sich nicht ausschalten.
Wollte ja eigentlich direkt nach Erscheinen zugreifen, aber dann dauerte es und dauerte es. Jetzt ist der Eizo in Sichtweite (aber wohl recht teuer, zumal ich die Zusatzfeatures alle nicht brauche) und es bleibt abzuwarten, wie der Samsung 30" mit LED Backlight (soll dieses Jahr auch noch kommen) einsteigt. Ich werd erstmal mal den LCD-TV ersetzen. Eine Baustelle nach der anderen ;-). Bin ja mit dem Apple auch nicht wirklich unterversorgt.haste eigentlich mitlerweile deinen Samsung 30" ?
Die Diskussion gibt es, soweit ich mich entsinnen kann, schon solange es 3D karten gibt ;-). Zunächst bieten z.B. die 24 Frames/s bei Film nicht in jeder Situation genügend zeitliche Auflösung. Deswegen wird Sport ja nicht mit 24/25 Frames/s aufgezeichnet, sondern mit 50/60 Fields/s oder mit 50/60 Frames/s. Insofern hat das schon seine Berechtigung. Als angenehm empfinde ich bei einem Online FPS so den Bereich >=50 Frames/s.etzt willst du mir erzählen , das es erst ab 85FPS flüssig bei dir ist obwohl das Auge Keinen Unterschied macht ob es 40 FPS oder 85 FPS sieht ...
@hardcorevibes, bleib mal ruhig...
Ich schrieb "Und das die XT bis zu 40% langsamer als ne GTS sein soll..."
Bis zu schließt vereinzelt mit ein, aber egal...
Wem du mehr vertraust oder nicht ist dabei recht egal. Denn traue nie einer Statistik die du nicht selber gefälscht hat...
Die besten Tests sind Usertests von unabhängigen Personen und die zeigen ein eindeutiges Bild, nämlich gleichstand GTS und XT, mal Vorteil für die eine und mal für die andere, aber auf keinen Fall Unterschiede von 40%...
Aber neja, vllt sind die CT Jungs auch ein wenig voreingenommen gewesen, bei den ganzen falschen Infos die vorher im Netz rumschwirrten.
Ok einigen wir uns darauf, dass der Treiber einfach zu alt war für noch heute gültige Aussagen.
Da geb ich dir nur zum Teil recht weil es gibt wenig Zeitschriften die so neutral berichten wie die c't.
Es gibt z.B. keine Awards oder Testsieger. Es gibt nur ein Fazit in dem immer alle Vor- und Nachteile der getesteten Objekte besprochen werden. Klar hab ich in meinem Beitrag weiter oben nur den Teil über Nvidia hervorgehoben, aber genau so steht auch drin, dass z.b. keine der Nvidia Karten einen Video-In besitzt und die Treiber sehr zu wünschen übrig lassen im Bezug auf den Analogen TV Out.
mfg Vibes
@ SailorMoon: Ist damit zu rechnen, dass die alten Scalerfähigkeiten (waren ja früher wohl besser) von Nvidia per Treiber wiederkommen oder waren das Features die im Chip eingebaut waren?
zum Stromverbrauch mag ich hier mal kurz die Werte aus der aktuellen c't 17/07 aufführen:
8800Ultra/2900XT
Peak: 230/210 Watt
Typ.: 159/152 Watt
Idle : ? /59 Watt (entspricht einer GTS)
Also sieht man deutlich, dass die ATI im Idle Vorteile hat aber "on-Load" ähnlich viel Strom benötigt wie eine Ultra, in den Benches aber (vereinzelt) bis zu 40% auf eine GTS 640MB verliert.
Mehr muss ich dazu glaub ich nicht sagen.
mfg
Vibes