x1950 xtx wirklich besser als 7950gx2?

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
technische fortschritte bzw. vorteile einer architektur (ATI X1000 Serie) kann man auch nicht in den subjektiven bereich abschieben. das sind fakten. subjektiv ist eher ein statement wie "ich sehe keine unterschiede".

der vorteil ist absolut vorhanden und technisch begründet. man könnte bestenfalls über sehschwächen oder bedienfehler des testers diskuttieren; nicht aber über das vorhandensein von unterschieden.

NV hinkt qualitativ und technisch arg hinterher, benötigt zwei GPUs für adäquate leistung und besitzt trotzdem das restriktivere featureset.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Enristotelles schrieb:
Zum Thema AA und HDR in Dark Messiah:

Mit der 7950 GX2 kann man in Dark Messiah mit HDR UND AA laufen lassen. Das einzige Spiel, dass treiberbedingt diese Kombi sperrt ist Oblivion - und da sind ohnehin keine Reserven für sowas da.

Dark Messiah läuft auf meinem Rechner bei 1200x1024 mit maximalen Details, sowie HDR + 6xAA und 16xAF bei konstant 60 fps und minimal 52fps.
Die bildqualitätis fantastisch und man muss schon einen argen fetisch haben, wenn man da von unbefriedigender Qualität spricht.

Also ist die Diskussion hier eher gehaltlos - zumindest sehe ich das so!

gez. Enristo

Oh man wenn ich das hier so lese. Soviel Halbwissen :shake:

Numero Uno!: Dark Messiah basiert auf der Source Engine (von HL2) und bietet kein richtiges HDRR!!!

2. Das verwendetet "HDRR" in der Source Engine ist ein art aufgebohrter Bloom!...

3 …deshalb läuft auch "HDRR"@AA mit Dark Messiah auf NVIDIA Grakas!

4. Und tut mir und euch endlich ein gefallen und benutzt nicht die Abkürtzung HDR! Es heist HDRR (High Dynamic Range Rendering) --> http://de.wikipedia.org/wiki/HDRR

5. @ Enristotelles: Oblivion unterstützt richtiges HDRR und deshalb lüft das GAme nicht auf NV Grakas @ AA ;) Man kann aber Bloom einschalten was einen änlichen (nicht so "realistischen") effekt ewrzeugt, der auch mit AA läuft. Der HDRR@AA Modus bei Oblivion wurde für die ATI Grakas aus gewissen gründe gespert auf die ich hier nich t eingehn werde! Mit dem Chunk Patch ist auch das kein Problem (Siehe Scrennshots von Beschleunige und die Infos auf seiner HP).

6. @ Enristotelles: Und nein Oblivion ist nicht das einzige Spiel, das HDRR@AA auf NVIDIA Grakas spert. Es ist einfach nicht möglich richtiges HDRR@AA auf NVIDIA Grakas zu betreiben!! Wann begreift IHR das endlich!! :shake:

7. Zur BQ äußere ich mich nicht mehr. Beschleunigen hat ja schon ausführlich und genug zu diesem Thema gesagt. Außerdem könnt ihr ja mal auf die Links in der Sig von Beschleunigen klicken und mal lesen ;)

8. Kann es sein das in letzter Zeit vom Giga Forum alle hier her wandern? 0_o

Ende der Durchsage!!…
 
Genau Source Engine hat 12 Bit HDR was nicht schlecht aussieht und halt dafür da ist amitdie Lieben NV User nicht zu kurz kommen :)

Call of Juarez was jetzt kommt hat das selbe Problem wie Oblivion... lässt sich aber umgehen wenn man die exe in oblivion.exe umschreibt:)

Nicht dezo troz sind es ziemlich wenige Games die richtiges 16 Bit HDRR bieten und wenn sie es haben hat die jeweilige Karte momentan noch nciht ausreichend Power um gleich 4xAA und 16xAF + HDRR flüssig darzustellen.
Die Zeiten werden wohl erst in Zeiten des G80 und R600 kommen... und ich bin mir sicher dass NV dann auhc 16 bit hadr mit aa kombinieren kann.

So jetzt ma back to topic

Wenn er den Platz hat sollte er sich die 7900gx2 für 350 holn.
Falls er aber nicht den Platz im Case hat eben die ATI.
eine 7950er wären in meinen Augen da Geld verschwendung.

Mfg
 
Rauwman schrieb:
Genau Source Engine hat 12 Bit HDR was nicht schlecht aussieht und halt dafür da ist amitdie Lieben NV User nicht zu kurz kommen :)
Genau :)

Nicht dezo troz sind es ziemlich wenige Games die richtiges 16 Bit HDRR bieten und wenn sie es haben hat die jeweilige Karte momentan noch nciht ausreichend Power um gleich 4xAA und 16xAF + HDRR flüssig darzustellen.
Jepp zustimm!

Die Zeiten werden wohl erst in Zeiten des G80 und R600 kommen... und ich bin mir sicher dass NV dann auhc 16 bit hadr mit aa kombinieren kann.
Hmmm, (bin mir da jetzt nicht 100%ig sicher ob das stimmt bzw. Spekulation von dieversen Quellen) aber soviel ich gehört habe wird mit G80 auch kein HDRR@AA funtzen :(
 
da würde NV sich aber nen Schuss nach hinten machen. Es kommtdoch normalerweise eine neue Architektur in den G80 rein. Würde mich echt wundern wenn der es auch nicht kann.

Mfg
 
bisher wurde es zwar immer alles als "neue" architektur beworben, aber real fliesst immer ne menge vom vorgänger mit ein.

in jeder NV karte steckt eine FX ;)
Nicht dezo troz sind es ziemlich wenige Games die richtiges 16 Bit HDRR bieten und wenn sie es haben hat die jeweilige Karte momentan noch nciht ausreichend Power um gleich 4xAA und 16xAF + HDRR flüssig darzustellen.
Die Zeiten werden wohl erst in Zeiten des G80 und R600 kommen... und ich bin mir sicher dass NV dann auhc 16 bit hadr mit aa kombinieren kann.
da wo es möglich ist, HDRr und AA zu kombinieren, limitieren eh ganz andere faktoren. siehe z.b. meine screenshots mit TES4 @1280x1024 + AA + HDRr (+ forciertes AF). Alles auf gleichem niveau, wie ohne AA. klick (runterscrollen)


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Thx@ Elwood :hail:

@Topic:

Ich würde die Ati nehmen, ist als Singlekarte sicher atm die beste Wahl.
Ich hab nur die 7900gx2 genommen, da ich für 360€ die Performance von fast 2x Ati x1900xtx bekomme und dabei weit über 450€ gespart habe.

Aber dieser "Vorteil" wird durch den recht hohen Preis der 7950er relativiert.

Zudem habe ich ab und an noch Probs mit SLI, sprich manche Games gehen nicht auf anhieb und es gibt Probleme, man kann diese zwar beheben, aber es muss nicht sein..

Also wenn du ne Singlekarte willst -> Ati
Wenn du Dualkarte @ Singlekarte willst -> NV

Quadsli ist nur deshalb schlechter als Ati CF, weil die Leistung brach liegt.
(Siehe dazu Test auf CB, in OpenGL ist QuadSLI ungeschlagen, aber in D3D liegt es hinten, wegen einer Treiberbeschränkung (max Frames to render ahead geht nicht über "3").
 
Also ja, eine x1950xtx ist besser als die 7950gx2
Also ja, eine 7950gx2 ist schneller ( 2xGPU ) als eine x1950xtx.
 
hmm.. danke erstmnal an alle an die schnellen antworten etc. jetzt hab ich aber noch eine frage undzwar ob ich noch lieber auf die dx10 karten warten sollte? was sagt ihr dazu? lieber warten oder jetzt ne x1950xtx kaufen?
 
der Test auf CB is noch mim alten Treiber also nicht wirklich interessant.
Ehm ja SLI kann schon ma was Zeit aufreisend sein (hatte ja selber ma ein 78gtx sli) aber da kommt man nach ner Zeit rein... hatte es aber auch am anfang nicht leicht mit der ATI.
Bei SLI wars manchma störend dass du nen Monat warten musstest bis der Treiber auf ein neues Game optmiert wurde (ala Hitman).

Ich würds ma so sagen.. egal was er sich hollt... viel Falsch kann er nicht machen. In SLI muss er sich zwar rein arbeiten... hat danach aber hammer Leistung... bei ATI is es was einfacher jedoch ist die Karte für 1600x1200 nicht so der Burner wie ne Single Slot SLI Karte.

Mfg

edit.: Ja warte auf R600... wird so im Dezember sein und bís dahin reicht deine Karte.
 
Zuletzt bearbeitet:
muss ich auch nicht... ich kann mir auch morgen ne x1950 oder ne gx2 bestellen... aber warum sollte ich wenns die eine auch tuht.

Sry aber vieleiht sind deine NV ja auch defekt :fresse: Ich war mit meinen immer zufrieden. Und eins kann ich sagen... zwar hat man bei ATI keinen streifen mehr beim af... dafür ist das AF aber unschärfer. Und Flimmer hast bei beiden KArte wirklich gleich.


edit: achja das SPINNER les ich trozdem! Aber seit du dem ATI Wahn verfallen bist scheinst du selber nicht zu wissen ob du nicht selber einer bist.

Mfg
 
Ich schaue hier in den thread rein und erwarte eine Antwort auf die Frage " x1950 xtx wirklich besser als 7950gx2?" zu finden.
Aber was seh ich ?
Leute die sich die Köppe einhauen.
Macht das im Streitthread oder lasst es sein !!
 
@Call79 Ja aber das Problem an der ganzen Sache ist einfach das es auch Neulinge hier gibt und dann kommt da so ein Herr Beschleunigen her und erzählt denenn son mist und die glauben es auf anhieb... wir können über sowas halbwegs hinweg schaun.

Mfg
 
Es wäre schön wenn ihr das Flammen und beleidigen beenden würdet und nur noch zum Topic posten würdet. Ansonsten sehe ich schwarz für den Thread oder für einzelne die es nicht lassen können.


@Beschleunigen

Es reicht jetzt. "kinderpostings" hin oder her.
 
Wenn ich's mal so grob überlfliege, dann postet Beschleunigen nur Fakten, danach wird er beleidigt.

Nun ja, wie viel GPUs für die selbe Leistung bei NVidia nötig sind um mit Ati Schritt zu halten ist ja relativ egal, solange der Preis auf dem gleichen Level ist. Dem Endanwender dürfte das gleichgültig sein. Über die qualitativen Eigenschaften kann ich nichts sagen. Was mir teils noch Sorgen machen würde bei solch einem Neukauf ist das teils frühe Ableben dieser teuren Karten. Würde mich für die Variante entscheiden die länger hält :)
 
Zuletzt bearbeitet:
wenn ich das richtig aus diversen tests gelesen habe, holt die x1950xtx ihr potential fast nahezu nur aus dem mit 2gig real getakteten ddr4ram ?!
für den single-gpu-user ist die x1950xtx ist dann eben die schnellste graka --- und hier ne 7950x2 als gegenpart zu nehmen, halte ich für falsch, denn diese hat ja 2 gpus ;)

nix desto trotz finde ich es klasse, dass ne dual-gpu-lösung (hier das CF sys) eine quad-lösung überrumpelt
 
jup, auch wenn die leistung der GX2 brachliegen sollte, warum ist die X1950CF dann schneller??
 
die x1950xtx ist derzeit auf jeden fall die schnellste single-gpu karte. man sollte sich jedoch überlegen (wenn man hohe auflösungen spielt), ob die 400€ dann nicht besser in eine 7900GX2 (gleiche spezifikationen wie die 7950GX2!) die nur rund 345€ kostet zu investieren. die ist von der leistung und damit vom preisleistungsverhältnis einfach besser.
natürlich bleibt da immer noch die frage der bildqualität die am besten jeder für sich beantworten sollte.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh