7950GX2 vs. 7900GX2 und den Rest der Bande!! (Part 1)

Status
Für weitere Antworten geschlossen.
sieht geil aus ! aber mich stören ehrlich gesagt die lücken dazwischen !

aber das macht bestimmt voll bock und dann auch noch mit so nem lenkrad ^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
an den Rand gewöhnt man sich sehr schnell, ich jedenfalls...
 
jo - ist ja auch das fazit: toll für leute mit seltenen, riesigen und hochauflösenden monitoren.

dass mal keiner die nvidia kauft, um auf 17, 18 oder 19" TFTs ein gutes bild in 1280pixeln zu haben, ist ja selbst die blinden unter den einäugigen klar.

ausser für auflösung kann man die "leistung" halt nicht verwenden und leider auch nicht für eyecandy in aktuellen HDRr games einsetzen.

quasi schreibt die c't das, was ich schon vor 3 wochen wusste, als ich noch meine GTX versuche am start hatte.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Die c't schreibt lediglich, dass sie keine Ahnung von CPU Limitierung haben! Sorry @ Beschleunigen, aber man kann auch mit SLI und einem 19" Monitor verdammt viel Spaß haben. Spreche da aus Erfahrung. Nur leider limitieren die CPU's allzu häufig. Mit dem Conroe wird dem erstmal Abhilfe geschafft (wobei es bei Quad SLI schon wieder schwer werden dürfte), dann sehen auch die Bildraten für Oblivion anders aus. Und auf einem 19" Monitor mit 1280x1024 kannst du dann folgende Späße einschalten: 16AF, HDR, SSTAA, VSync, 75 Hz, Highest Details --> auch das macht Spaß und da will ich einen 21" Monitor mit 1600x1200 Oblivion ruckelfrei darstellen sehen. Könnte eng werden.

Andere Spiele sind dann zwar häufig Kindergeburtstag, aber es werden demnächst genug kommen die auch eine 7950 GX2 oder zwei 7900 GTX auf einem 19" fordern, da mache ich mir wenig Sorgen...
 
@Beschleunigen... du fürhst auch ständig aufs HDR zurück, wobei kaum interesannte Games es haben (das Richtige 16Bit) und kommende Spiele ala Crysis und UT es zwar haben, du es aber auchnet mit ner x1900 spielen kannst.... :coolblue:
 
Kann man mit einer 7950 GX2 eigentlich 2 Monitore gleichzeitig ansteuern? Dann praktisch 2560x1024 fahren? Wäre das machbar? Würde mir nämlich eigentlich schon reichen --> genug Arbeitsplatz für Videobearbeitung und andere Sachen, mehr Fläche bei Spielen...günstige Angelegenheit im Vergleich zu einem 23" Monitor oder was ähnliches...
 
Wenn sli/multi-gpu aktiviert ist, kann man nur einen Ausgang nutzen. Ausserdem sind 2 Monitore beim Spielen nicht der Bringer, weil man dann die beiden Monitor-Rahmen genau in der Mitte des Bildes hat.
 
35712 schrieb:
Andere Spiele sind dann zwar häufig Kindergeburtstag, aber es werden demnächst genug kommen die auch eine 7950 GX2 oder zwei 7900 GTX auf einem 19" fordern, da mache ich mir wenig Sorgen...

Das sehe ich nämlich auch so!!! Deshalb bin ich schwehr am überlegen ob die 7950Gx2 nich bald mein Core Duo fordert. Der geht zur not auch auf knapp 3 Ghz mit Luft. Spiele ala Crysis werden auch eine X1900XTX die Grenzen aufzeigen im Quali Betrieb und das bereits bei 1280x1024. Besser jetzt die Knete für ne geile 7950GX2 als in drei Monaten noch ne x1900 Crossfire für 400€ dazu kaufen!!!
 
Hi,

hab gerade mal die gainward getestet. hab den 91.33 nv treiber + coolbits.
Aber mich hat etwas gewundert, denn wenn ich übertakten will muss man das nun selber machen? is das richtig so? weil sonst macht er ja automatisch die optimalen taktraten...
ich hab erstmal nur so getestet warscheinlich nicht stabil mach ich morgen mal
625/605mhz oder 600/800mhz:drool:
mich hat es schon gewundert das bei 800mhz keine fehlermeldung kommt naja wie gesagt "warscheinlich" nicht stabil :d

ich hab das übertakten nur im classic control panel gefunden im "neuen" nicht wieso? hab ich was falsch gemacht? die coolbits version hab ich von hier...

mfg
 
Hallo,
habe heute meine 7950GX2 (XFX 520M) bekommen und folgendes Problem:

Bevor jetzt dioe Geschichte mit dem Netzteil kommt: Das ist nicht das Problem, hatte vorher ne X1900XTX die unter Last mehr saugt als die 7950 GX2... Netzteilinfos weiter unten...
Auch an der übertaktung von XFX liegt es nicht, habe die Karte auf nVidia Referenz zurückgetaktet und die Fehler waren immernoch da.

So jetzt das Problem

Egal welches Spiel ich spiele, nach ca. 3-10min bekomme ich nen freeze und nix geht mehr, mir bleibt dann nur der Reset. Ab und zu hatte ich auch Grafikfehler
und der Bildschirm blitze kurz auf.

Da ich mich ganz gut Auskenne habe ich mir mal das Bios angeschaut und dort
die Frequenz des PCI-E Slots von 16 auf 8bit runtergestellt. Dadurch konnte ich
den Absturz deutlich nach hinten verschieben. Ich habe dann noch die HT Frequenz von 1000 auf 600 reduziert. Seit dem ist das aufblitzen ganz weg und ich
hatte auch keine Grafikfehler mehr und konnte ca.35 min spielen (also bis ich keine lust mehr hatte) ohne Fehler.

Keine Ahnung ob das Problem jetzt dauerhaft behoben ist aber selbst wenn,
finde ich das ziemlich komisch. Hat jemand Erfahrungen mit der Karte und solchen Problemen?

Habe alle aktuellen Treiber, Forceware 91.33 und auch 91.31 schon probiert.

Mein System:
Asus A8V-E Deluxe @ BIOS 1010 (Via k8t890) und in der nVidia Komp. Liste aufgeführt ab BIOS 1005
AMD X2 4800+ no OC @ AC Freezer 64 Pro
Corsair XMS 3200 2x 1024MB 2,5/3/3/6
Enermax LibertY 400W (12V=30A)
1x S-ATA 250GB WD

PS: Die Performance der Karte ist echt Brutal. Entgegen der Tests in den Zeitschriften habe ich in Oblivion (1600x1200 4xAA maxAF /ALLE Details auf MAX)
in den Außenbereichen 20-25 Frames mehr als mit der X1900XTX und in den Innenbereichen (Stadt) immernoch ca. 10-15 Frames mehr. Zudem ist die Gefühlte
Performance sehr hoch. Oblivion fühlt sich an wie Butter, das habe ich mit der X1900XTX selbst mit schlechteren Einstellungen nie hinbekommen.
 
Zuletzt bearbeitet:
Ich tippe mal auf einen Mainboarddefekt (Bios neu aufspielen bitte, auch wenn es kompatibel erscheint), oder einen Grafikkartendefekt. Was anderes kann ich mir schwerlich vorstellen.
 
@Beschleunigen... du fürhst auch ständig aufs HDR zurück, wobei kaum interesannte Games es haben (das Richtige 16Bit) und kommende Spiele ala Crysis und UT es zwar haben, du es aber auchnet mit ner x1900 spielen kannst....

wem was wie sehr gefällt, ist ja wohl ein subjektiv. ich baue den rechner immer so zurecht, dass er das bewegen kann, was grad' auf meiner platte schlummert und ich hab' verhältnismäßig viele HDR-fähige titel ;)
was interessiert mich, wie irgendwas läuft, was es noch gar nicht gibt - wenn irgendwas nicht läuft, baut man halt um.

die GX2 ist ein 79GT@SLi. mit allen SLi macken und vor allem: mit der NV üblichen grafik. tut doch nicht so, als wären zwei kleine 79er der weisheit letzter schluss.. eher ist diese GPU erst im doppelpack zu ertragen ;)

schätze mal, dass es angenehmer und vor allem sinnvoller für einen spieler ist, heute flimmernde HDRr kanten mit AA zu beruhigen, als beruhigt zu schlafen, weil ich vielleicht irgendwann, irgendwas spielen kann, was richtung jahresende erscheint.

warum hab' ich eigentlich keine zweite GTX gekauft? ich hatte doch monatelang SLi..? achja, jetzt fällt's mir ein: NVidia's content sieht scheisse und seit zwei, drei generationen immer gleich aus.

aber interessant zu sehen, wie wichtig SLi auf einmal für viele ist - haben doch etliche leute monatelang gegen SLi gewettert, wie überflüssig es nicht sei.

wenn die fachpresse jetzt klar schreibt, wie es ist, dann ist die fachpresse natürlich schlecht oder hat nen falschen prozzi genommen (3800+ und FX62).. logo! davon wird das bild auch ruhiger, die kanten weniger flimmrig und AF grieselt weniger.. als nächstes kommt noch einer und erzählt mit zwei conroes kann man MSAA in HDR fähigen games nutzen.. LOL echt!

mit der der GX2 hat NV ne neue lobby für 79GT SLi fans geschaffen. jeder mit zwei GTXen ist schneller unterwegs (und edler) - jeder mit ner ATI x1900 hat die bessere grafik auf dem schirm und nur sehr wenige haben TFTs, die mehr als 1280pixel darstellen können.

klar, das gefällt den GX2 käufern nicht - ist aber die realität. schnell war vorgestern. sauber muss es aussehen und man muss alle derzeit verfügbaren features nutzen können. es sei denn, man kauft den crap für benchmarkvergleiche oder profilierungen unter leidensgenossen oder halt, um das 30" TFT anzusteuern.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
@Beschleunigung also ich hatte leider nicht das vergnügen die grafik einer X1900XT zu sehen aber ich habe ja noch eine X850XT ,Ist zwar ein schlechter vergleich aber im vergleich zu meiner damaligen 7800GTX war das bild meiner meinung nach nicht ganz so brilliant mir kam es immer so vor als würde da etwas fehlen!
Aber es geht hier ja eh nicht um so ein blödes NV vs. ATI sondern allgemein um die 7900GX² und die 7950GX² welche meiner Meinung nach die zur zeit besten G.Karten sind da man halt AA+AF reinhauen kann ohne gnade und die karte zieht voll durch allerdings werden auch diese karten bald an ihre grenzen stoßen wie schon bei Oblivion welches angeblich wirklich die killer grafik haben soll (habe es leider auch noch nicht gesehen)
 
Zuletzt bearbeitet:
@Beschleunigung also ich hatte leider nicht das vergnügen die grafik einer X1900XT zu sehen aber ich habe ja noch eine X850XT ,Ist zwar ein schlechter vergleich aber im vergleich zu meiner damaligen 7800GTX war das bild meiner meinung nach nicht ganz so brilliant mir kam es immer so vor als würde da etwas fehlen!
klar, da fehlt ja auch einiges. die 78GTX konnte schon TAA, HDRr und hatte SM3 support.
Aber es geht hier ja eh nicht um so ein blödes NV vs. ATI sondern allgemein um die 7900GX² und die 7950GX² welche meiner Meinung nach die zur zeit besten G.Karten sind da man halt AA+AF reinhauen kann ohne gnade und die karte zieht voll durch
das macht ATI auch. nur kann man da AA sogar aktivieren, wenn man ein HDRr fähiges spiel am start hat. auf NV karten musst du HDR abschalten, wenn du AA verwenden willst. das ist kaum sinnvoll, weil man im SLi zwar superviele AA spielereien zur verfügung hat (1, 2, 3), aber leider kann man die, wg. des multisampling anteils allesamt knicken, wenn man ein HDRfähiges spiel spielt. supersampling führt auf den bandbreiten-armen GT ausführungen leider zu unterirdischer performance und geht ebenfalls nicht in HDRr titeln (ausnahme AOE3 weil nur 1.5fach SSAA verwandt wird)..
allerdings werden auch diese karten bald an ihre grenzen stoßen wie schon bei Oblivion welches angeblich wirklich die killer grafik haben soll (habe es leider auch noch nicht gesehen)
aus oblivion kann man eine menge rausholen. aber nicht auf verfügbaren NV karten.

noch aus c't:
Leider sind aber nur die aktuellen Grafikchips des Konkurenten ATI in der Lage, etwa HDR-Rendering (High Dynamic Range) und Antialiasing gleichzeitig zu aktivieren. Dabei stören Aliasing-Artefakte und flimmernde Kanten gerade in kontrastreichen HDR-Bildern besonders stark. Auch bieten nur die Radeon X1000 Chips hochwertiges sechsfaches Antialiasing und einen winkelunabhängigen anisotropen Filter..

und genau das macht den unterschied in der darstellung aus, den man sich als spieler mit anspruch wünscht. lieber geile grafik und 80 fps, als NV optik und 120fps (auf meinen TFTs wären sogar 60fps oder kurz darunter, genug).


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Was genau ist eigentlich der Unterschied zwischen der 7900gx2 und der 7950gx2 außer eine Preisdifferenz von 200 Flocken und ein par cm Länge?
 
Die 7900GX2 Karten von Alternate sollen aber auch nur Bulk Versionen sein. Also nur die "nackte" Karte ohne Originalkarton, Zubehör oder Software.
 
die 7900GX2 war ursprünglich nie für den einzelhandel gedacht, daher auch kein zubehör und kein support seitens nvidia.

c't schreibt:
Die ursprünglich für Quad-SLi-Systeme entwickelte 7900GX2 hatte sich wg. ihrer Abmessungen sowie mangelnden Stabilität nicht bewährt und war nicht in den Einzelhandel gekommen.

leistungstechnisch ist es banane, ob man zwei 79GT für je 270€, eine 7900GX2 für 350€ oder ne 7950GX2 für 550€ einbaut. bei allen kommt hinten vergleichbares (das gleiche) heraus.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Die passt auf alle Mainboards. Aber dein Gehäuse muss ein EATX sein. Bzw. auf dem Mainboard werden evtl. Anschlüsse verdeckt oder unzugänglich.

@ Beschleunigen: Es ist nicht Banane, eine 7950 GX2 kann im OC die Leistung zweier 7900 GTX erbringen (und zwar im soft OC) und ist damit sehr günstig.

Die BQ der Radeons bestreitet hier keiner, sondern lediglich die Testmethoden der c't. Der Prozessor ist nun einmal zu schwach dafür (gerade da Single Core) und wenn du dann wieder mit dem Argument der BQ kommst, ändert das auch nichts daran.

Noch einmal: Die BQ von der X1900er Reihe ist besser als die der nVidia Karten. Aber die 7900 GX2 oder 7950 GX2 bietet ein sehr gutes Preis-/Leistungsverhältnis und da kann auch die BQ der Radeons nichts dran ändern. Und der Test der c't ist nicht sauber gelaufen, auch daran kann die BQ der Radeon nichts ändern.

Hier hat übrigens niemand gesagt dass SLI extrem wichtig ist, nur damit ATI nicht besser ist als nVidia. SLI bietet einfach mehr Speed zum kleineren Preis, weniger Stromverbrauch, weniger Hitzeentwicklung. Natürlich braucht man mehr Bildverschönerungen um die Filterung auszugleichen, aber diese Power ist da. Und eine Radeon X1900XTX ist nun einmal langsamer als eine 7950 GX2 mit annähernd guter BQ. Ob es einem den Preis wert ist, das bleibt jedem selbst überlassen. Ich z.B. bekomme eine 7950 GX2 mit Wakü für schlappe 460€ mit 2 Jahren voller Garantie. Da kann mir eine X1900XT(X) für 330€ oder 400€ + 60€ für den Wasserkühler gestohlen bleiben, die sind nur wenig günstiger und lange nicht so schnell.

Es gibt übrigens genug Spiele die eine 7950 GX2 ausreizen können, die kommen nicht erst am Jahresende.


Aber wir haben deine Nachricht, die du seit Wochen hier im Forum jedem einhämmern willst so langsam mehr als deutlich verstanden: Du liebst die BQ deiner Radeon und willst diese Qualität jedem gönnen. Aber bitte akzeptiere dass es auch Leute gibt die sich anders entscheiden. Und nein, wir sind nicht mit dummen Argumenten gekommen, sondern in diesem Fall hast du mal dumme Argumente in unsere Aussagen interpretiert. Spiele einfach ein bisschen mehr mit deinem PC, lass uns dafür etwas mehr in Frieden falsche Entscheidungen treffen, lach uns aus, aber höre auf so anstrengend häufig die nVidia Karten und alle User die sie nutzen in den Boden zu stampfen. Ich halte auch nicht viel von der BQ nVidias, aber zu jedem Preis kaufe ich mir deswegen keine Radeon. Amen.
 
Zuletzt bearbeitet:
Beschleunigen schrieb:
c't schreibt:
Die ursprünglich für Quad-SLi-Systeme entwickelte 7900GX2 hatte sich wg. ihrer Abmessungen sowie mangelnden Stabilität nicht bewährt und war nicht in den Einzelhandel gekommen.

Das mit der mangelnden Stabilität stört etwas...

Tendiere dann doch zur x1900xt... nur gutes gehört, abgesehen von dem Krach..
 
Das mit der Stabilität hätte ich gerne näher erläutert:

- ist hier von einer Karte, oder von einem Quad SLI Verbund die Rede?
- welches NT wurde genutzt?
- wie hoch waren die Temperaturen?
- welches Mainboard und welche Treiber wurden benutzt?
- welche Grafikkartentreiber wurden benutzt?

--> Diese Karten wären nicht so populär, würden sie alle instabil laufen.
 
warum ist die 7900GX2 wohl so billig und jetzt doch im einzelhandel gelandet, wo sie doch ursprünglich nur für dell gedacht war.. ? könnte was damit zu tun haben, oder? vielleicht hat dell einen ruf zu verlieren.. ? who knows?

@35712
ich versuche zumindest niemanden zu illosionieren oder ähnlich. ich schildere knallharte fakten, die einem NVidia-fan nicht auf- oder gefallen, wenn er jahrelang den gleichen schrott kauft (nur halt immer 30% schneller).
hab' selbst 9 jahre lang immer NV gehabt -> daher war die ATI ja so eine positive überraschung. aber ganz weg bin ich von NV auch nicht. ich werde natürlich auch den G80 einbauen, wenn er verfügbar wird und ich werde bis dahin auch noch den selten hochgefahrenen NV-zweitrechner hier stehen haben. für's karzenoming!


(..)

mfg
tobi
 
Zuletzt bearbeitet:
@Beschleunigen

Vielleicht bist du dir nicht ganz darüber im klaren WIE OFT schon über die Bildqualität der ATI's im Vergleich zu den Nvidia's gesprochen, gestritten und philosophiert wurde!!!

Wir wissen ja was du meinst und du hast ja auch recht damit aber du wirst in meinen Augen zu nem nervenden ATI Fanboy und ich glaube, dass du das nich nötig hast.
 
Nachruf

In Tiefer Trauer habe ich mich dazu entschlossen, meine Sparkle 7950 GX2 innerhalb der 14 Tage, wieder an Alternate zurückzuschicken. Ich habe weiter oben beschriebene Probleme (Bluescreens mit völlig bescheuerten Fehlercodes & kein Bildsignal nach 12h-Betrieb) selbst mit einem Netzteilwechsel von LC-Power 550 Watt zu einem BeQuiet! DarkPower P6 520 Watt nicht beheben können.

Besagte Probleme bestanden bis zum Ausbau meiner 7800 GTX nicht. Besitze ein DFI SLI Expert. Von daher werde ich heute mal wieder das Lager Wechseln und mir eine X1900 XT holen.
 
Zuletzt bearbeitet:
@Beschleunigen

Vielleicht bist du dir nicht ganz darüber im klaren WIE OFT schon über die Bildqualität der ATI's im Vergleich zu den Nvidia's gesprochen, gestritten und philosophiert wurde!!!

na klar. ich hab' vor kurzem selbst noch den unterschied kleingeredet und in den subjektiven bereich geschoben. ich konnte ja wg. dem SLi auch ne menge mit kantenglättung herausholen und ich hab' jedem, der sich über schlechtes bild beklagt hat erklärt, wie er das maximum aus den NV-karten rausholen kann.

wenn ich also meinen SLi lobeshymnen nachrufe, dass der unterschied eklatant ist (z.b. GTL, TES4, oder überhaupt bei verwendung von AA+AF+HDRr) dann darf man das so schlucken. wäre er "minimal" würde ich weiterhin sagen, dass er nur "minimal" ist.

ich denk' mir das nicht aus und ich mache es auch nicht vorsätzlich schlecht, aber es ist in jedem fall weit besser, als das was ich noch monate zuvor in den himmel gelobt habe. wenn ich jetzt 16x AF einstelle, bekomm' ich es auch + wenn ich jetzt kantenflimmern glätten will, schalte ich AA ein, egal, ob das spiel HDR nutzt, oder halt nicht.

solange ich also nicht auch auf 3 monitore switche, wie tm30 oder solange ich mir kein 30" display an die graka hänge, bekomme ich auf der kanadischen karte unter DX9 einfach das bessere bild und erspare mir die "nvidia-show" bzw. gehe mit dem c't artikel konform. ist exakt meine beobachtung.

auch mal ein "amen" von mir.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh