2560x1600 - welche Graka ist hier sinnvoll?

*flame* *hust*

Ein Kino hat 24 FPS...mancher Zeichentrick nur 17FPS...das muss ja die Hölle für dich sein.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Weild as Menschliche Auge eine Bildwiederholrate von 28-30FPS hat , was heist alles was darunter ist wird als Ruckeln wahrgenommen , alles über dieser Grenze bezeichnet mann als FLÜSSIG.

Jetzt willst du mir erzählen , das es erst ab 85FPS flüssig bei dir ist obwohl das Auge Keinen Unterschied macht ob es 40 FPS oder 85 FPS sieht ...


Beweise mir das gegenteil und du hast die Ganze Medizin auf dieser Welt durcheinander gebracht....

Google mal was...

Klar ist es von vorteil 85fps zu haben , um sogenannte slow downs auszugleichen.. aber es ist egal wenn du an einer bestimmten stelle das games 85 oder 40FPS hat das sieht mann nicht.

Eagleone19
 
Omg jetzt fangen wir hier an, jeder film auf einem 1chip dlp projektor ist auch eine qual ja, so ists.

@eagle du hättest sogar fast recht, wenn das gehirn über ne sync buchse mit dem pc verbunden wäre
 
Zuletzt bearbeitet:
Omg jetzt fangen wir hier an, jeder film auf einem 1chip dlp projektor ist auch eine qual ja, so ists.

@eagle du hättest sogar fast recht, wenn das gehirn über ne sync buchse mit dem pc verbunden wäre


www.wikipedia.de

mach dich selber schlau , für soein wie dich suche ich bestimmt nix raus...:stupid:
 
Bevor du hier nen flame war anfängst, ist gut, was meinste wie oft ich die diskussion geführt habe. btt
 
Ja leider ist sie OT wenn auch recht interessant. Könnte man ja mal in OT weiter ausführen.

Aber - BTT - in der aktuellen c't ist noch mal ein Vergleich von ATI 2900XT und 8800GTS-Ultra drin und da ist das Fazit auch ganz klar, dass wenn man kompromislose Leistung (und die wird gebraucht bei der Auflösung) haben möchte, auf jeden Fall zu NVidia greifen sollte.
Jetzt ist halt nur die Frage - Geld bei Seite legen und bis Weihnachten warten oder dann gleich im August eine GTX holen?

mfg Vibes
 
Ich als 100%iger "Nuetralist" würde auch zu nVidia raten. Ist nunmal so, dass nVidia im Moment die bessere Wahl ist. Daran hat die 2900XT ja leider auch nichts geändert.

Und wenn der Threadersteller nicht auf OC steht, sollte es in meinen Augen auch eine GTX sein.

Achja, HD 2900XT 1GB braucht bei Vollast 218W und die GTX "nur" 155W (Quelle Alternate :fresse:) Kommt zwar nicht soganz an die PS3 ran, aber viel ist es dennoch.

Nein das stimmt nicht, die XT braucht ca. 160W, ob nun mit 1GB oder 512MB ist dabei egal, das nimmt sich nicht viel...

@hardcorevibes
also ich sage auch, nimm die GTX und wenns dir von der Leistung nicht reicht, dann OC noch ein wenig...
Ich würde nicht warten, wer weis was die neuen Karten dann kosten werden. Solange ATI kein Konkurenzprodukt im obersten HighEnd Markt hat, dann kann NV mit den Preisen machen was se wollen...
Ich würde an deiner Stelle gleich kaufen, zur not die GTX dann wieder kurz nach release der neuen Karten verkloppen und umsteigen, aber auf keinen Fall warten.
 
Solange ATI kein Konkurenzprodukt im obersten HighEnd Markt hat, dann kann NV mit den Preisen machen was se wollen...

Hat NV schon immer gemacht siehe 1 Jahr zurück da war die besch.. 7900GTX auch sauteuer bis zum wechsel auf G80 und ATI hatte deutlich günstigere und schnellere Karten ala X1900XT/XTX am Start gehabt. :wayne:
 
Ja gut, aber man sieht schon das ne GTS und GTX der G80er Reihe schon ein Stück im Preis gefallen ist seit die XT auf dem Markt ist...
Zu Release waren das ja exorbitannte Preise mit über 600€ für die GTX
 
Oh, sry :eek: Bei Computerbase wird das mit dem Stromverbrauch nochmals "korrigiert". Das gesamte Testsystem zieht da bei Idle um die 240W.

Dennoch ein stolzer Wert würde ich sagen, und dann noch trotzdem mehr als die GTX.
 
Oh, sry :eek: Bei Computerbase wird das mit dem Stromverbrauch nochmals "korrigiert". Das gesamte Testsystem zieht da bei Idle um die 240W.

Dennoch ein stolzer Wert würde ich sagen, und dann noch trotzdem mehr als die GTX.





Ein Test unter Windows VISTA, bei ATI wurder der 7.6/7.7er Treiber verwendet mit dem STromsparmodus ;)
 
Allerdings hab ich seit der 8800 Probleme mit bisher allen Treibern. Die Skalierung lässt sich nicht ausschalten.
Versuch bitte mal mit ausgeschaltetem Bildschirm Windows zu starten. Die Skalierungsprobleme hängen mit den EDID Infos, die per DDC übertragen werden, zusammen. Deswegen klappt es auch mit manchen Monitoren und bei manchen hakt es.

haste eigentlich mitlerweile deinen Samsung 30" ?
Wollte ja eigentlich direkt nach Erscheinen zugreifen, aber dann dauerte es und dauerte es. Jetzt ist der Eizo in Sichtweite (aber wohl recht teuer, zumal ich die Zusatzfeatures alle nicht brauche) und es bleibt abzuwarten, wie der Samsung 30" mit LED Backlight (soll dieses Jahr auch noch kommen) einsteigt. Ich werd erstmal mal den LCD-TV ersetzen. Eine Baustelle nach der anderen ;-). Bin ja mit dem Apple auch nicht wirklich unterversorgt.

etzt willst du mir erzählen , das es erst ab 85FPS flüssig bei dir ist obwohl das Auge Keinen Unterschied macht ob es 40 FPS oder 85 FPS sieht ...
Die Diskussion gibt es, soweit ich mich entsinnen kann, schon solange es 3D karten gibt ;-). Zunächst bieten z.B. die 24 Frames/s bei Film nicht in jeder Situation genügend zeitliche Auflösung. Deswegen wird Sport ja nicht mit 24/25 Frames/s aufgezeichnet, sondern mit 50/60 Fields/s oder mit 50/60 Frames/s. Insofern hat das schon seine Berechtigung. Als angenehm empfinde ich bei einem Online FPS so den Bereich >=50 Frames/s.

Gruß

Denis
 
Zuletzt bearbeitet:
jo das stimmt, aber die ATI Karten verbrauchten ja immer schon mehr als die NV Karten...
im 2D kann man der XT aber derzeit schon gehörig das Verbrauchen verbieten. Mit untervolten und untertakten kann dann keine G80 Karte mehr mithalten... :d
 
@ SailorMoon: Ist damit zu rechnen, dass die alten Scalerfähigkeiten (waren ja früher wohl besser) von Nvidia per Treiber wiederkommen oder waren das Features die im Chip eingebaut waren?

zum Stromverbrauch mag ich hier mal kurz die Werte aus der aktuellen c't 17/07 aufführen:

8800Ultra/2900XT
Peak: 230/210 Watt
Typ.: 159/152 Watt
Idle : ? /59 Watt (entspricht einer GTS)

Also sieht man deutlich, dass die ATI im Idle Vorteile hat aber "on-Load" ähnlich viel Strom benötigt wie eine Ultra, in den Benches aber (vereinzelt) bis zu 40% auf eine GTS 640MB verliert.
Mehr muss ich dazu glaub ich nicht sagen.

mfg

Vibes
 
Neja ne, also solche Gesamtsystemverbrauchsmessungen sind sehr ungenau. Und das die XT bis zu 40% langsamer als ne GTS sein soll, ist auch schwachsinn.
Wer weis was die da wieder getestet haben.

Fakt ist aktuell, das der 7.8er Beta Treiber der XT mit AA und AF einen guten Schub verhilft, ohne die BQ zu ändern...
Die XT und GTS sind sowohl in der Leistung als auch im Preis gleich auf.
 
Sorry aber wer lesen kann ist klar im Vorteil - da steht vereinzelt - auch wenns in Klammern steht ist es keine Verallgemeinerung und heißt, dass diese "2900XT 40% hinter GTS"-Situation in 1-2 Benchmarks vorkahm. Bei Call of Juarez war die XT sogar 10% vor der Ultra.
Beim Treiber geb ich dir allerdings recht - war 7.6 - der 7.7 kam leider zu spät zum testen.

Und zu den Testmethoden - ich vertrau der c't mehr als so ziemlich jeder Onlineplattform.

mfg Vibes
 
Zuletzt bearbeitet:
Bald kommen XHD2 Monitore und Grafikkarten mit 3800x2400. Endlich neuer Spaß fürs Bankkonto. :)
 
@hardcorevibes, bleib mal ruhig...
Ich schrieb "Und das die XT bis zu 40% langsamer als ne GTS sein soll..."
Bis zu schließt vereinzelt mit ein, aber egal...

Wem du mehr vertraust oder nicht ist dabei recht egal. Denn traue nie einer Statistik die du nicht selber gefälscht hat...
Die besten Tests sind Usertests von unabhängigen Personen und die zeigen ein eindeutiges Bild, nämlich gleichstand GTS und XT, mal Vorteil für die eine und mal für die andere, aber auf keinen Fall Unterschiede von 40%...

Aber neja, vllt sind die CT Jungs auch ein wenig voreingenommen gewesen, bei den ganzen falschen Infos die vorher im Netz rumschwirrten.
 
@hardcorevibes, bleib mal ruhig...
Ich schrieb "Und das die XT bis zu 40% langsamer als ne GTS sein soll..."
Bis zu schließt vereinzelt mit ein, aber egal...

Ok einigen wir uns darauf, dass der Treiber einfach zu alt war für noch heute gültige Aussagen.

Wem du mehr vertraust oder nicht ist dabei recht egal. Denn traue nie einer Statistik die du nicht selber gefälscht hat...
Die besten Tests sind Usertests von unabhängigen Personen und die zeigen ein eindeutiges Bild, nämlich gleichstand GTS und XT, mal Vorteil für die eine und mal für die andere, aber auf keinen Fall Unterschiede von 40%...

Aber neja, vllt sind die CT Jungs auch ein wenig voreingenommen gewesen, bei den ganzen falschen Infos die vorher im Netz rumschwirrten.

Da geb ich dir nur zum Teil recht weil es gibt wenig Zeitschriften die so neutral berichten wie die c't.
Es gibt z.B. keine Awards oder Testsieger. Es gibt nur ein Fazit in dem immer alle Vor- und Nachteile der getesteten Objekte besprochen werden. Klar hab ich in meinem Beitrag weiter oben nur den Teil über Nvidia hervorgehoben, aber genau so steht auch drin, dass z.b. keine der Nvidia Karten einen Video-In besitzt und die Treiber sehr zu wünschen übrig lassen im Bezug auf den Analogen TV Out.

mfg Vibes
 
Ok einigen wir uns darauf, dass der Treiber einfach zu alt war für noch heute gültige Aussagen.

Jo geht klar... :d


Da geb ich dir nur zum Teil recht weil es gibt wenig Zeitschriften die so neutral berichten wie die c't.
Es gibt z.B. keine Awards oder Testsieger. Es gibt nur ein Fazit in dem immer alle Vor- und Nachteile der getesteten Objekte besprochen werden. Klar hab ich in meinem Beitrag weiter oben nur den Teil über Nvidia hervorgehoben, aber genau so steht auch drin, dass z.b. keine der Nvidia Karten einen Video-In besitzt und die Treiber sehr zu wünschen übrig lassen im Bezug auf den Analogen TV Out.

mfg Vibes

Das ist immer so Ansichtssache welchen Tests man mehr vertrauen kann, ich für meinen Teil traue halt eher Usertests, denn die sind meist immer brand aktuell, Zeitschriften und Onlinemagazine haben den besagten Nachteil mit den Treibern. Bei NV mag das unter Umständen nicht so wild sein, denn die bringen ihre Treiber ja recht unregelmäßig raus, aber gerade bei den ATI Karten ist es recht wichtig aktuelle Treiber zu nehmen.
Und wenn dann nach ihren Test noch paar Tage/Wochen vergehen, bis die Zeitung im Handel ist, wirft sowas oft ein schlechtes Bild, da es mittlerweile ganz anders aussehen kann...
Des weiteren vertraue ich nicht immer darauf, das wirklich immer unter gleichen Bedingungen getestet wurde, es gibt genug Magazine welche sich wohl "kaufen" lassen um somit der einen oder anderen Hardware Vorteile einzuräumen. (aber das will ich jetzt der CT nicht unterstellen, dazu kenne ich den Test nicht genau genug)
 
also folgendes!

man sieht den unterschied zwischen 45 und 80 fps vl nicht, doch wenn man die mausbewegt bei nem shooter merkt man es deutlich!!!! anno1701 ruckelt sogar bei 20fps nicht (zumindest man siehts nicht)!!! wobei ein shooter mit 20fps eigtl unspielbar ist da man gar nichts trifft :fresse:
 
klar 100%ige Neutralität wird wohl niemand erreichen. Aber in meinen Augen ist die c't eben neutraler als andere.

Und generell hast du recht, nur selbst testen bringt die richtigen Ergebnisse, denn selten hat man das Setup des Testsystems. Meistens werden die ja sogar vor jedem Benchmark neu aufgesetzt - Das macht kein normaler User.

Aber gut um nicht gänzlich ins OT abzudriften kann ich als Fazit für mich ziehen, dass die Karte für meine Ansprüche eine 8800GTX ist und grade auch in Verbindung mit meinem Monitor, kaum ein Weg dran vorbei führt.
Darüber hinaus lohnt sich wohl das Warten auf die nächste Generation erstmal nicht (sofern die nicht überraschenderweise im September raus kommt :d).
Danke an alle die mir geholfen haben - das Forum ist echt gut.

mfg Vibes
 
@ SailorMoon: Ist damit zu rechnen, dass die alten Scalerfähigkeiten (waren ja früher wohl besser) von Nvidia per Treiber wiederkommen oder waren das Features die im Chip eingebaut waren?

zum Stromverbrauch mag ich hier mal kurz die Werte aus der aktuellen c't 17/07 aufführen:

8800Ultra/2900XT
Peak: 230/210 Watt
Typ.: 159/152 Watt
Idle : ? /59 Watt (entspricht einer GTS)

Also sieht man deutlich, dass die ATI im Idle Vorteile hat aber "on-Load" ähnlich viel Strom benötigt wie eine Ultra, in den Benches aber (vereinzelt) bis zu 40% auf eine GTS 640MB verliert.
Mehr muss ich dazu glaub ich nicht sagen.

mfg

Vibes

Das stand auch in der CT

Stromverbrauch (2D/3D/Peak in Watt)
MSI NX8800GTX - 82/150/213
Saphire HD2900XT - 47/146/195

:bigok:
 
Wenn du schon zitierst dann richtig :d - MSI NX8800GTX OC Edition
Das ist entscheidend an der Stelle, denn die verbrät deutlich mehr Leistung als die Standard GTX - zum Vergleich Gainward Bliss 8800GTX 69/131/188 - dann sieht es schon wieder anders aus. Und von den ATIs gibt keine die drunter ist.

Aber für alle die es interessiert - gemessen wurde, per indirekter Leistungsmessung, nur die verbrauchte Leistung der Karte selbst. Damit auch gemessen werden konnte was über den PCIe Bus fließt wurde ein spezieller PCIe Busextender verwendet.

mfg

Vibes
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh