Umfrage: X1950XTX Wer kauft sie wirklich?

Kauft ihr euch eine X1950XTX?

  • Ist mir Zu Teuer

    Stimmen: 108 29,8%
  • Auf jeden fall! Das muss sein!

    Stimmen: 55 15,2%
  • Auf keinen Fall!

    Stimmen: 147 40,5%
  • Wird mit Zu Warm

    Stimmen: 14 3,9%
  • Ist mir zu Laut

    Stimmen: 10 2,8%
  • Habe kein PCI-E

    Stimmen: 30 8,3%

  • Anzahl der Umfrageteilnehmer
    363
  • Umfrage geschlossen .
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Karanso schrieb:
Die Blinden die am lautesten Schrein ham ne nVidia zu Hause...:p

sag ich mal so, HeHe
ok kuluwusch
einmal NV immer NV thats me
 
Dominator18 schrieb:
:shot:

http://enthusiast.hardocp.com/image.html?image=MTE1MzU5NDI5MGdxTGdRV2plUVFfM183X2wucG5n

Lese dir das Review durch fals du english kannst.Bei jeden Spiel schreiben die das das es auf der Ati besser aussieht.

ich will ja nix sagen, aber bei der ati fehlt einiges, man schau sich mal den Busch hinten mittig an. bei der ATI ist der garnet abgebildet, toll wenn ATI schon was unterschlägt, kein Wunder warum sie bei Oblivion schneller sind
und die Bäume links mit den Blättern sehen bei der Nvidia wesentlich besser detailiert aus. Wo man was sieht ist der Weg, aber das bekommt man weg indem man die Optimierungen deaktiviert bzw Supersampling und Hohe Qualität verwendet

gibts noch mehr Bilder ? und welche Grafikeinstellungen haben die verwendet ?

wenn du seriöse Vergleiche haben willst, gehe auf COmputerbase und schaue dir da die Bilder zu den jeweiligen getesteten Spielen an und vergleiche..btw mein Lieblingsbeispiel BF2, bei ATI Treppen und bei Nvidia schön glatte bei gleicher AA Stufe:d


btw das hier welche was von Augenkrebs schreihen, wenn man ohne AA und AF spielt kann man wohl von Augenkrebs sprechen.

Und die ganzen Optimierungen sollte man bei Nvidia ausschalten, als ich mal die ganzen Optimierungen aktiviert hatte dachte ich wirklich ich faule so schlecht war das AF, da kann ich euch verstehen. aber ohne Optimierungen erkennt man wirklich keinen Unterschied
 
Zuletzt bearbeitet:
Accuface schrieb:
ich will ja nix sagen, aber bei der ati fehlt einiges, man schau sich mal den Busch hinten mittig an. bei der ATI ist der garnet abgebildet, toll wenn ATI schon was unterschlägt, kein Wunder warum sie bei Oblivion schneller sind
und die Bäume links mit den Blättern sehen bei der Nvidia wesentlich besser detailiert aus. Wo man was sieht ist der Weg, aber das bekommt man weg indem man die Optimierungen deaktiviert bzw Supersampling und Hohe Qualität verwendet

gibts noch mehr Bilder ? und welche Grafikeinstellungen haben die verwendet ?

wenn du seriöse Vergleiche haben willst, gehe auf COmputerbase und schaue dir da die Bilder zu den jeweiligen getesteten Spielen an und vergleiche..btw mein Lieblingsbeispiel BF2, bei ATI Treppen und bei Nvidia schön glatte bei gleicher AA Stufe:d


btw das hier welche was von Augenkrebs schreihen, wenn man ohne AA und AF spielt kann man wohl von Augenkrebs sprechen.

Und die ganzen Optimierungen sollte man bei Nvidia ausschalten, als ich mal die ganzen Optimierungen aktiviert hatte dachte ich wirklich ich faule so schlecht war das AF, da kann ich euch verstehen. aber ohne Optimierungen erkennt man wirklich keinen Unterschied


Was hab ich vorhin gesagt fals du english kannst lies dir denn test durch.:asthanos:

http://enthusiast.hardocp.com/images/articles/1153594290gqLgQWjeQQ_3_3.gif
Bei der Toxic wurde nur medium grass benutz.
 
Zuletzt bearbeitet:
wemmer gerade bei Oblivion sind, wo siehst du hier den Unterschied:

http://www.computerbase.de/bild/article/598/55
http://www.computerbase.de/bild/article/598/56

richtig es gibt keinen, weil cb andere Grafikeinstellung hat und auf Hohe Quali gebencht hat ohne optimierungen

btw ich meinte nich die Game Grafik Einstellung, sondern die Treibereinstellung, da kann man gewöhnlich mehr einstellen als im Spiel oO

wie gesagt wenn man alles unter Höhster Quali einstellt muss ich wirklich sagen das das Augenkrebs verursacht
 
Zuletzt bearbeitet:
Dominator18 schrieb:
Jo Crysis wird auf Ati Karten eh besser laufen.Bei Crysis wird eine X1950 XTX ein 7950 GX2 mit Sicherheit platmachen.Nicht ohne grund liefen alle Techdemos von Crysis auf einer X1900.Schon erbärmlich das es Nvidia grade so schaft mit 2 Karten eine X1950 XTX grade noch so auf distanz zu halten.

Für Crysis brauchts du entweder 2 Karten oder neue Hardware.
Damits angenehm lüppt!

Der Zeitpunkt ist sehr ungünstig für einen Kauf.
Lieber die Arschbacken zusammenkneifen und auf die neuen Generationen warten.

Der Wertverlust dieser Modellreihe wird noch höher als üblich sein!
 
Zuletzt bearbeitet:
Ist doch egal, was wo läuft, darum gehts hier ja auch nicht.
Das eine Spiel läuft das besser und das andere da.....
Also :btt: aber mit dem :)
 
halte die x1950xtx für sinnlosen aufwand, die hätten diese verschwendete beachtung dem r600 schenken sollen...
 
TES4 zu vergleichen, ist wie äpfel und birnen. erstmal stehen gras und büsche immer ein bissl anders, dann sieht's nicht so aus, als hätte da jemand AF im treiber forciert und zu guterletzt, wird man bei NV niemals AA und HDRr verbinden können, was niemals ein vergleichbares bild ergeben kann, es sei denn, man drückt die ATI karten auf das niveau der NVs runter und spielt mit bloom bzw. ohne FSAA.

verglichen mit meiner XTX war ich in TES4 auf meiner 79GTX sehr viel langsamer unterwegs, wenn ich @HQ mit forciertem AF gespielt habe. und die kanten haben geflimmert im HDRr betrieb, wie nichts gutes, weil wie schon erwähnt auf den NV chips kein FSAA möglich ist, wenn man HDRr verwendet.

interessant dazu wäre vielleicht der artikel in c't 15/2006 S.80-81


(..)

mfg
tobi
 
genau das war für mich das Kill kriterium für ne NV lösung....

@ Bildqualität

mmmm... Bildqualität dahingestellt, aber das HDR+AA bei NV nicht praktikabel ist ist für mich bei ner 500€ Karte nicht zu verschmerzen sorry aber will ja keine reine Leistung, denn wofür will ich denn Leistung.... genau um die Quali hochzudrehen ;)

@ Topic
die Umfrage hat das kleine Problem, dass hier ein großer Prozentsatz an High-End User unterwegs ist, und sich somit der umstieg zB X1800XT auf X1950XTX einfach nicht lohnt

bleibt also: nette karte, und das ATi die auch nur als übergangslösung sieht, wird wohl mit dem 400€ Preis deutlich, denn den Sprung von ~330 auf 400 x1900XTX -> X1950XTX wäre zu verschmerzen (vor allem wegen dem Lüfter)

ich persönlich glaube weniger dass die karte wegen 7% Mehrleistung gelauncht wurde, vielmehr um sich von Image der Lauten ATI Karten zu verabschieden (ein Problem weniger für den R600 launch - jeder weiß schon dass ATIs auch leise sein können)
 
naja wie gesagt wo gibt es schon HDR Spiele wo das AA und HDR gleich funzt ? also Oblivion funzt ohne den Chuck Patch kein AA von standard, früher funzte auch kein AA und HDR bei der ATI bei Ghost Recon AW (weiss jetzt nich ob das gefixt wurde, beim release funze es jedenfalls net)

und das wars auch schon mit echten HDR Spielen (neben Far Cry und SC3 natürlich ;)), die anderen wie HL2 sind pseudo HDR und lassen sich mit jeder GK darstellen.

Also bei der Auswahl an HDR Spielen sieht es eher mager aus und das innerhalb von 2 Jahr. Und bis jetzt echte HDR Spiele rauskommen gibts schon lange die neue Generation, und selbst wenn denke ich die Programmierer werden ein Pseudo HDR als alternative zum echten HDR in die Spiele integrieren
 
Zuletzt bearbeitet:
als begründung warum ich die karte nicht kaufe, ich habe eine x1900xt und der geschwindigkeitsgewinn von mal gerade 5-10% lohnen die 400-500euro nicht....DX10-Karte ist echer dann in 1 Jahr angesagt
 
naja wie gesagt wo gibt es schon HDR Spiele wo das AA und HDR gleich funzt ? also Oblivion funzt ohne den Chuck Patch kein AA von standard, früher funzte auch kein AA und HDR bei der ATI bei Ghost Recon AW (weiss jetzt nich ob das gefixt wurde, beim release funze es jedenfalls net)

da sollte man dann schon verstehen, warum das so ist. tipp: atm weicht es von der DX9 spec ab, HDRr und FSMSAA darstellen zu können. daher gibt's auch kein WHQL zertifikat für AA+HDRr (chuckpatch) treiber.

und das wars auch schon mit echten HDR Spielen (neben Far Cry und SC3 natürlich ), die anderen wie HL2 sind pseudo HDR und lassen sich mit jeder GK darstellen.

so sieht das auch aus.

Also bei der Auswahl an HDR Spielen sieht es eher mager aus und das innerhalb von 2 Jahr. Und bis jetzt echte HDR Spiele rauskommen gibts schon lange die neue Generation, und selbst wenn denke ich die Programmierer werden ein Pseudo HDR als alternative zum echten HDR in die Spiele integrieren

ich finde dass es schon etliche gute HDRr-titel gibt, die allesamt von kantenglättung profitieren, weil der kontrastumfang im HDRr betrieb einfach regelrecht nach AA schreit.

wichtig ist doch nicht, wie etwas funktioniert, sondern: DASS es funktioniert, weil keine architektur-bedingte begrenzung vorliegt.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Wie ist das eigentlich wenn ich im Treiber AA anschalte und im Spiel dann HDR? Beispiel FlatOut 2.
Lasse zwar im Moment eh immer alles wo es nur geht auf HigH, Im Spiel und im Treiber.
 
Diese Aufregung wieder. Alles nur wegen einigen mehr-MHz des neuen GDDR4-Speicher's.
Für alle Vernunftbegabten heißt es doch aber: abwarten, abwarten, abwarten. Schließlich resultiert Leistung ja nicht nur aus 'ner guten Graka, siehe mein Rechner.
Nächstes Jahr wird "alles besser" - wie jedes Jahr. Neue CPU's, neue GPU's, DX10, DDR3-RAM, und, und, und.
Also sparen wir lieber gleich für den AMD/Intel Octo-Core GTI 48V, einer NV G4711 bzw. einem R 0815 und warten auf ein BS, welches dem Rechner anweist, Geschirr zu spülen oder Fenster zu putzen.
Na ja, ich seh's jedenfalls gelassen.
______________________________
Asus TUSL2 Socket 370
Pentium III Tualatin 1,4 GHz @ 1,5 GHz
Point of View 6800XT 512 MB
512 MB SD-RAM PC150 CL2 von MDT
u.v.m.
 
Wie ist das eigentlich wenn ich im Treiber AA anschalte und im Spiel dann HDR? Beispiel FlatOut 2.
Lasse zwar im Moment eh immer alles wo es nur geht auf HigH, Im Spiel und im Treiber.
mit offiziellen treibern wird dann kein AA dargestellt. mit chuck-patch schon. so macht man das dann ja auch. AA per treiber forcieren und den rest im spielmenu einstellen.


(..)

mfg
tobi
 
Accuface schrieb:
naja wie gesagt wo gibt es schon HDR Spiele wo das AA und HDR gleich funzt ? also Oblivion funzt ohne den Chuck Patch kein AA von standard, früher funzte auch kein AA und HDR bei der ATI bei Ghost Recon AW (weiss jetzt nich ob das gefixt wurde, beim release funze es jedenfalls net)

und das wars auch schon mit echten HDR Spielen (neben Far Cry und SC3 natürlich ;)), die anderen wie HL2 sind pseudo HDR und lassen sich mit jeder GK darstellen.

Also bei der Auswahl an HDR Spielen sieht es eher mager aus und das innerhalb von 2 Jahr. Und bis jetzt echte HDR Spiele rauskommen gibts schon lange die neue Generation, und selbst wenn denke ich die Programmierer werden ein Pseudo HDR als alternative zum echten HDR in die Spiele integrieren

irgendwie musste ich bei dem Beitrag schmunzeln...

Das sind sozusagen die Argumente, die die Ati'ler vor 2 Jahren angebracht haben, als alle auf der X8xx Serie rumgehackt haben, das diese kein SM3.0 kann und kein HDR kann. Mit dem Unterschied, dass es damals außer Farcry wirklich kein HDR Spiel gab und die X8xx Serie schneller als die NV Pendants waren.

Ich habe auch erst darüber nachgedacht ne 7900GX2 zu kaufen, weil die Leistung zu dem Preis ja doch schon enorm ist. Aber damit bekomme ich keinen leisen PC hin, die Karte ist megalang (auch wenns sie locker bei mir passen würde), die 7900er Sterberate ist mir zu extrem, die BQ ist mir zu schlecht (weil wenn ich schonmal zocke, dann solls schon richtig gut aussehen) und irgendwie kann ich mich auch nicht mit dem Konzept anfreunden.
Bei der 7950GX ists ähnlich, die ist nur kürzer, aber dafür wesentlich teurer. Dafür gefällt mir die Lüfterkonstruktion garnicht. Wenn man nen Silent PC haben will, muss man zwangsläufig ne Wakü haben und nochmal Lust über 100 Euro für nen Wakühler auszugeben.

Das finde ich bei der X1950XTX wesentlich besser - wobei ich die 7950GX2 eh nicht wirklich mit der X19xx vergleichen mag, weil die einfach ne Klasse für sich gebildet hat - denn der Kühler ist in 2D sehr leise, und ich nutze den PC fast nur in 2D :drool: :haha: . Die Karte hat die beste Bildqualli am Markt und ist wohl auchnoch die schönste Serienkarte am Markt ;)

Naja aber ich werd wohl erstmal warten... so wie die Preise aktuell angegeben werden ist die mir auch zu teuer.
Wenn die Preise fallen schlag ich evtl zu.
 
Zuletzt bearbeitet:
naja was will man da groß erwarten?
Der R580 Chip ist ja kein anderer.
Außerdem stellt sich Computerbase beim X1k OC auch imemr ziemlich dumm an.
Beim Techpowerup Review ist das OC ja ganz brauchbar, was allerdings klar ist, da W1zzard ja der Atitool Programmierer ist und gleichzeitig Admin (oder wie auch immer) von Techpowerup
http://www.techpowerup.com/reviews/ATI/X1950XTX/8
 
schon mal was von konkurrenz druck gehört? auch wenn sich das nicht rechner wird sowas angeboten um nicht unter zu gehen ;)

wann soll die x1950xtx nun rauskommen? und wieso zum teufel macht ati nen rückschritt bei der x1950xt ??? nur 256mb ram :hwluxx:


greetz
fooki

komi$ch schrieb:
würde es sich net rechnen, würden sie es net machen
 
Hab für "Auf keinen Fall" gestimmt.
Grund: Im März hab ich meine X1800 gekauft und auf PE geflashed. Diese bringt mir für 1280x1024 genug Leistung. Werde die Arschbacken zusammenkneifen und auf die next Gen warten, auch wenn die Karte reizt :)
 
Ich werde sie mir holen, damit ich auf meinem 21" Samsung Widescreen wieder alles in 1680x1050 spielen kann ^^ Da ich eh in den nächsten Wochen mir nen neuen Rechner kaufen kann ich auch gleich eine 1950nehmen. Würde ich schon eine 1900xt/xtx haben würde das nicht lohnen, dafür ist die differenz zu gering.
 
hab für zu laut gestimmt. hab jetzt ne passive und hätte gerne wieder eine passive.
wahrscheinlich wird meine nächste eine 7600er, die reicht für die auflösungen, in denen ich spiele und verbraucht auch nicht so viel saft -> passiv möglich.
ATI könnte sich da meiner meinung nach ne scheibe von nv abschneiden, solange ATI keine wirklich leisen kühllösungen bietet, sind deren karten für mich leider uninteressant.
 
Hier ein sehr ausführlicher Test zu der neuen X1950XTX.

@fooki:
Die X1950XT hat 512MB und die Karte wird ca. Mitte September erscheinen.
Ati bringt eine "neue" X1900XT mit 256MB, vielleicht meintest du diese Karte.

@Topic:
Werde mir die X1950XT nicht kaufen, da ich im Besitz einer X1900XT mit Zalman VF900-CU bin.
 
ATI könnte sich da meiner meinung nach ne scheibe von nv abschneiden, solange ATI keine wirklich leisen kühllösungen bietet, sind deren karten für mich leider uninteressant.
klar. ati könnte ja die chips durchsägen. dann hätten sie die hälfte der verlustleistung/leistungsaufnahme und in etwa die leistung einer G71 core..


(..)

mfg
tobi
 
PitGST schrieb:
die ist nicht hässlich :fresse: ATI is hässlich :lol: BQ ist mir wurst weil ich overclocker bin und kein BQ freak

naja

bei dem Display aus deiner Signatur hilft auch die beste Graka Qualität nichts. :shot:

Ich hatte das selbst mal einen Abend zum testen da, kann also sehr wohl eine Aussage darüber machen.
 
Zuletzt bearbeitet:
Mit ATI hab ich keinen Sender. Da bleib ich lieber bei NVIDIA, macht sich alles viel einfacher mit der SLI-Technologie wenn man 2 Karten haben will anstatt Crossfire. Bildqualität ist auch nur eine These... Bei max. Details bin ich auch zufrieden damit. Braucht man kein ATI
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh