Test: AMD Radeon HD 7970 CrossFire vs. NVIDIA GeForce GTX 680 SLI

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vermisse die Auflösung von 5760x1200 bzw 5760x1080 :)

Die meisten werden das wohl dafür nutzen keiner mach nur 1920 x 1200(1080) würde mich zumindest jucken, da ich dann ein vergleich zu GTX 580 hätte :)
 
Verstehe nicht warum man im Fazit eher eine GTX680 empfiehlt. Für ein Multi-GPU Setup mit dieser Leistung sind 2GB einfach nicht mehr zeitgemäß.
 
Faktoren wie den Stromverbrauch kann man getrost unter den Tisch fallen lassen, da hier der Anschaffungspreis eines solchen Systems nicht im Verhältnis zum Unterschied des Verbrauchs der beiden Systeme steht.


Der beste Satz im Text....

:fresse2:
 
Jup gerade wo alles immer mehr in richtung weniger verbrauch geht sollte das sehr wohl Thema sein ;) Ausser man wohnt bei Mutti dann interessiert ein der Strom verbrauch wohl weniger ist aber anders wenn mans selber zahlt ;)
Mal angenommen 2x 7970 sind etwas günstiger und sparsamer als 2x680 ist es doch klar das über längere Zeit es noch mehr ersparnis wird da die 680er mehr kostet und vll auch mehr strom verbraucht. Und wenns dann nur um 5-10% Leistung geht.... Als wenns einem wirklich noch in games auffällt ob man 2x7970 oder 2x680 hat zumindest für einen Monitor bei z.b. standard auflösung 1920x1080/1200




@cf und microruckler, hatte selber nen cf aus 2x6870. Sofern man das spiel der Leistung der Karten anpasst merkt man da "sogut" wie nix andernfalls ist es wohl spürbahr aber das ist auch eher selten... Naja ansichtssache denk ich mal
 
Zuletzt bearbeitet:
Verstehe nicht warum man im Fazit eher eine GTX680 empfiehlt. Für ein Multi-GPU Setup mit dieser Leistung sind 2GB einfach nicht mehr zeitgemäß.


3xFull HD Display Setup Rating 5760x1080 mit 8AA u 16AF

Unbenannt.jpg


Das die Russenprogrammierer bei Metro dem einzigen Titel der hier Schwächen zeigt unfähig sind das Speichermanagement effizient auszulasten kann man wohl kaum den Karten anlasten
 
Zuletzt bearbeitet:
"Wer momentan den Aufbau eines Multi-GPU-Systems plant, dem legen wir ein SLI-System bestehend aus zwei GeForce GTX 680 nahe. Die Grundperformance und höher als bei zwei Radeon HD 7970 und durch weitere Treiber-Optimierungen dürfte NVIDIA auch noch etwas an Leistung hinzugewinnen. "

Klar, und bei AMD wird es natürlich keine Treiber-Optimierungen geben!!! o_O
Ich behaupte sogar das bei den AMD mehr Optimierungs-Potenzial vorhanden ist als bei den NV 680ern.
Geht es hier nun schon los wie auf CB? Grüne Brille lässt grüßen.

Was ist denn mit dir los? Es ist nur logisch, dass AMD bisher mehr Zeit für Optimierungen hatte, weil sie früher rauskamen. Aber erstmal so einen Stuss verzapfen!
 
Ich würde mir wünschen in zukunft 5760x1080 mit aufzunehmen.
Gibt immer mehr Leute die 3 Monitore haben und diese Auflösung nutzen.
 
Doch. Werde mir auch bald 5760x1080 zulegen und naja, gibt leider keine Reviews dazu.
 
mich würde mal interessieren wie die GTX680 sich im SLI verhält!
Also ob dann Turbo auf beiden karte auch funktioniert und wie die karten im SLI dann bei OC laufen!
Bei AMD brauchste ja nur den takt einstellen und der liegt dann auch an das ist bei NV mit turbo ja nicht so einfach!

Das ist ganz einfach. Die Taktänderungen durch den Turbo sind minimal. Es geht mal ein paar MHz rauf, mal ein paar MHz runter. Nix wildes, keien Sprünge um 100MHz+ wenn man so will. Es sei denn, man erreicht kritische Temperaturen oder das Powerlimit greift (was man im Treiber bekannter maßen aber höher stellen kann)

Bei ausreicht dimensionierter Kühlung bleibt die Taktrate auf höchst Niveau ziemlich stabil. Ne nach Last, welche das Game erzeugt. Auffallend ist, recht gleichbleibende Belastungstests ala Furmark und Co. zeigen im Vergleich zu Games deutlich rundere Taktratenkurven. Games sind da eher zackig.

Im SLI schwankt somit einfach nur die GPU Auslastung je nach Takt um ein paar Prozenz. Ob man dabei ein paar Prozente liegen lässt, ist schwer zu sagen. Ich denke aber mal nicht, weil einfach die Turbo-Taktrate sich dem Lastzustand anpasst. Sofern kein Power/Templimit vorliegt. Ein zu berechnendes Bild auf GPU 1 kann minimal weniger Zeit benötigen, was dann mit minimal weniger Takt kompensiert werden kann im Vergleich zur GPU 2.

Unterm Strich ändert sich für den Endkunden sogut wie gar nix.
Man sollte nur im SLI (und gerade dort) drauf achten, das die GPUs kühl genug bleiben. Bei mir gehts beispielsweise bei 69°C mit dem Takt etwas runter. Auffallend ist aber, das selbst bei max. Lüfterspeed egal ob Furmark oder diverse Games die Temp sich idR bei ca. 63-65°C einpendelt. Die Kühlung selbst scheint also astrein zu funkionieren.

Anhang anzeigen 190538

Andreas das Zauberwort heißt Frameratetarget oder im Volksmund Framelimiter und das Problem lößt sich im krititschen 40Frame Bereich quasi fast vollständig in Luft auf

Nvidia hat das bereits in den Treiber eingepflegt

Auch wenn das Feature ein sicher nettes ist, nicht jeder will mit dem Limiter spielen ;)
Noch dazu macht es den Vergleich zum Konkurenten unmöglich. Was bringt es mir die FPS Rate auf 40 oder 50 FPS zu reduzieren, wenn die Karten potentiel im überwiegenden Teil eines Spiels beispielsweise mehr können würden, bzw. in einem Level mal so, mal so die FPS schaffen. Dann drehst du alle Nase lang an den Settings runter um dann doch wieder Grafikfeatures runter zu drehen, weil es nicht ausreicht um den Limiter möglichst hoch einzuparken.

Das Feature ist bestenfalls ein Anfang um dem ganzen entgegen zu wirken. Mir persönlich würde da was besser gefallen, was sagen wir vllt 10% der absoluten Leistung schluckt, dafür aber die Frametimes selbst anpasst. Damit könnte man wohl selbst als Grafikfetischist spielend leben.

Der beste Satz im Text....

:fresse2:

Wieso?
Bei dem Verbrauchsunterschied von ~55W, wohlgemerkt des gesamt Systems und dem Kaufpreis von ~800-850€ für zwei Tahiti XT bzw. ~950-1000€ für zwei GK104 GPUs geht nunmal schlicht und einfach der Mehrverbrauch der Tahitis unter.
Rechne das mal aufs Jahr hoch. 8h zocken pro Tag!
Das sind ~160kWh, bei großzügigen 25Cent macht das 40€ im Jahr. Oder 3,33€ pro Monat bzw. ~11Cent pro 8h Zockertag...

Selbst nach zwei Jahren holt man den Mehrpreis der NVs nicht rein. Und 8h pro Tag Volllastzocken sind schon ziemlich sportlich. Schon allein dahin betrachtet, das bei ~9h Arbeit pro Takt, ggf. Fahrweg + sonstige zu erledigende Sachen sowie nem Minimum von 6h Schlaf pro Tag das schon ziemlich häftig wäre, das täglich durchzuziehen.

Da spart man mehr Strom, wenn man anstatt die 50W Halogenstrahler Lampe sich ne ~10W Energiesparlampe beim nächtlichen zocken anschaltet ;)

Jup gerade wo alles immer mehr in richtung weniger verbrauch geht sollte das sehr wohl Thema sein ;) Ausser man wohnt bei Mutti dann interessiert ein der Strom verbrauch wohl weniger ist aber anders wenn mans selber zahlt ;)
Mal angenommen 2x 7970 sind etwas günstiger und sparsamer als 2x680 ist es doch klar das über längere Zeit es noch mehr ersparnis wird da die 680er mehr kostet und vll auch mehr strom verbraucht. Und wenns dann nur um 5-10% Leistung geht.... Als wenns einem wirklich noch in games auffällt ob man 2x7970 oder 2x680 hat zumindest für einen Monitor bei z.b. standard auflösung 1920x1080/1200

Wieso annehmen, wenn es Fakten gibt!?
Die AMDs sind minimal (ca. 10%) stromfressender als die NVs, kosten dafür weniger, leisten im Schnitt je nach Game wohl minimal weniger.

3xFull HD Display Setup Rating 5760x1080 mit 8AA u 16AFDas die Russenprogrammierer bei Metro dem einzigen Titel der hier Schwächen zeigt unfähig sind das Speichermanagement effizient auszulasten kann man wohl kaum den Karten anlasten

Es sollte doch nun mittlerweile mal angekommen sein, das kurze paar Sekunden Benchdemos nichts über den VRAM aussagen können. Wie stellst du dir das vor?
Nachladerruckler gehen gnadenlos in den avg. FPS unter. Und die min FPS sagen ohne Frameverlaufsdiagramm auch nix aus. Noch dazu sind diese idR nicht bei den Tests enthalten und wenn, dann auf ein paar wenige Frames selbst beschränkt. Wenn bei 60 FPS 60 Frames angezeigt werden, misst man eine brachiale Sekunde des Benches. Holla, das ist Aussagekräftig ohne Ende... :wink:

PS: wieso sind die Jungs von Metro nun auf einmal unfähig!? Das Spiel gibts nicht erst seit gestern ;) Nur so nebenbei... Wo Metro auf den Markt kam, waren bei NV noch 1,5GB angesagt, und bei AMD noch 1GB im Programm... Nix mit unfähig. Die Anforderungen sind nunmal einfach so hoch. Wer die Details in Sachen Texturqualität will, muss da tiefer in die Tasche greifen.
Und Metro ist da lange nicht der einzige Titel, der das schafft. Ich fahre dir auch andere, ähnlich alte Titel ins VRAM Limit, mit den richtigen Settings ;) Das ist keine Kunst und hat absolut nichts mit Unfähigkeit zu tun. Hochauflösende Texturen brauchen schlicht und einfach Platz im VRAM. Und wenn der nicht vorhanden ist, dann gehts nunmal nicht weiter. So einfach ist das.

Unterm Strich bleibt der Spielball an der Stelle so oder so beim GPU Hersteller hängen. Denn der entscheidet, wie viel VRAM die Karten bekommen. NV hat sich für 2GB entschieden. Ob sich das für die Zukunft ausgeht, bleibt abzuwarten. Zumindest für SLI habe ich da massive Bedenken. Ähnlich den 470/570 Fermi Modellen mit 1,25GB, was heute in Anbetracht der Möglichkeiten in Sachen SGSSAA selbst bei älteren Titeln maßlos überfordert ist. -> das gleiche Schicksal wird GK104 ebenso treffen. Früher oder später ;)
 
Zuletzt bearbeitet:
aber solch einen hohen Sprung finde ich trotz Veränderung des Systems merkwürdig. Ausserdem ist die GTX 590 von den Änderungen nicht so stark betroffen und sie hat sogar einen niedrigeren Lastverbrauch als die HD 6990. Meine Verwirrung wirst Du sicher verstehen. Ausserdem würde ich gerne diesen Lastverbrauch auch bei mir haben! Es würde die Kühlung um einiges erleichtern.

So, wir oder besser der Kollege hat das noch einmal geprüft. Neuer Wert: 469,2 Watt

Es lag wohl ein Messfehler vor, vermutlich schaffte es die Karte nicht in den CrossFire-Modus im entsprechenden Benchmark. Ich werde das morgen oder später noch korrigieren. In zukünftigen Diagrammen wird es dann so oder so verbessert sein.
 
Auch wenn das Feature ein sicher nettes ist, nicht jeder will mit dem Limiter spielen
Noch dazu macht es den Vergleich zum Konkurenten unmöglich.

Darum ging es doch gar nicht sondern um das Eliminieren von Microrucklern

Auf dieses Zitat bezog sich der Text

Noch immer ein Problem sind die Mikroruckler. Diese treten zwar nur im unteren Framebereich auf, können aber weder von AMD noch von NVIDIA verhindert werden

das entspricht aber nunmal nicht mehr ganz der Realität,denn sie können zumindestens reduziert wenn nicht ganz eleminiert werden bei genug Rechenpower,wenn das gesetzte Framelimit konstant gehalten werden kann

Es sollte doch nun mittlerweile mal angekommen sein, das kurze paar Sekunden Benchdemos nichts über den VRAM aussagen können. Wie stellst du dir das vor?
Nachladerruckler gehen gnadenlos in den avg. FPS unter.

Eine Sequenz von einer halben Minute ist lang genug um den Teil der Texturen im Vram abzulegen der gebraucht wird für die aktuelle Darstellung,und wenn das Speichermanagement gut arbeitet wie bei 99% aller PC Games nimmt der Vram Verbrauch auch bei 5-6Minuten oder mehr nicht in dem Maße zu,das es für den Datenbus schlagartig zum Killer wird.Wenn vernünftig aus und eingelagert wird,bleiben nur die Texturen im Vram liegen die auch wirklich benötigt werden imo.

Was damals schon keine Wirkung zeigte bei 3GB 580ern hat heute ebenso noch Bestand,denn am Umfang der Texturen hat sich seither nichts geändert,und bis Konsolen auf einem höheren Level angelangt sind,wie heutige Referenzgrafikkarten dauert es mitunter auch noch weitere Grafikkartengenerationen.
 
Zuletzt bearbeitet:
Zum Test: Was ist denn da bei den Crysis 2 Crossfire Benches los ? Eine HD7970 ist schneller als zwei bei aktiviertem AA in 1680x1080 / 1920x1080...
 
Zuletzt bearbeitet:
Ich habe es mehrfach versucht, Treiber neu installiert, etc.
 
na, crossfire funktioniert bei crysis 2 nicht, das ist doch hinreichend bekannt?!

edit: zu laaaaaaaaaahm :fresse:
 
Ich würde mir wünschen in zukunft 5760x1080 mit aufzunehmen.
Gibt immer mehr Leute die 3 Monitore haben und diese Auflösung nutzen.

Und ich glaube das wenn Downsampling Mainstream wäre, das dann 3840x2160p die mit Abstand meist genutzte Auflösung bei Dual GPU Usern wäre. Aber das vermiesen uns die Grafikhersteller ja regelmäßig. Ich vermute Gehässigkeit.....aber was nicht ist, kann noch sehr schnell kommen. Ist ja keine große Kunst das grundsätzlich in die Treiber einzupflegen.

Auch wenn das Feature ein sicher nettes ist, nicht jeder will mit dem Limiter spielen ;)
Noch dazu macht es den Vergleich zum Konkurenten unmöglich. Was bringt es mir die FPS Rate auf 40 oder 50 FPS zu reduzieren, wenn die Karten potentiel im überwiegenden Teil eines Spiels beispielsweise mehr können würden, bzw. in einem Level mal so, mal so die FPS schaffen. Dann drehst du alle Nase lang an den Settings runter um dann doch wieder Grafikfeatures runter zu drehen, weil es nicht ausreicht um den Limiter möglichst hoch einzuparken.
Das Feature ist bestenfalls ein Anfang um dem ganzen entgegen zu wirken. Mir persönlich würde da was besser gefallen, was sagen wir vllt 10% der absoluten Leistung schluckt, dafür aber die Frametimes selbst anpasst. Damit könnte man wohl selbst als Grafikfetischist spielend leben.;)

Naja, man kann den Framelimiter in seiner Komplexität nun nicht mit z.Bsp dem Inspector vergleichen. Der fps Limiter sind drei klicks im Afterburner, vermutlich auch bloß in EVGA Precision.

Das mit der Vergleichbarkeit scheint das Hauptproblem zu sein. Es wird von Testern natürlich nie ein "100% Suppi" für den Limiter geben, schon weil der im Zweifel eine Menge Mehrarbeit bedeutet ;)

Nö, ich benutze den Limiter sogar mit nur einer Karte, hab mich total dran gewöhnt. Wobei das mit der Gewöhnung erstmal schwer fällt seine sagenhaften 120 fps los zu lassen. Wenn man erstmal begriffen hat das die total nutzlos sind und das es wirklich nur auf die min Fps ankommt, dann geht es ganz locker. Denn man richtet sich doch ein Spiel nach der Bottomline ein. Aber zugegeben, man muß es für jedes Spiel justieren.
 
na, crossfire funktioniert bei crysis 2 nicht, das ist doch hinreichend bekannt?!

edit: zu laaaaaaaaaahm :fresse:

Aber doch nicht generell oder ? Schau dir doch einfach 2560x1600 16xAF mit und ohne 4xAA an. Dort ist CF doch definitiv aktiv ?!
 
Zuletzt bearbeitet:
Das muss auch nicht generell der Fall sein mal greift Crossfire mal nicht,selbst bei verschiedenen Setups des selben Spiels kann das der Fall sein
 
Beiträge zur Prüfung entfernt.
 
selbst bei verschiedenen Setups des selben Spiels kann das der Fall sein

Hmm, dann könnte man ja eventuell eine andere Auflösung antesten. 1920x1200 ist ja nahe dran, damit man wenigstens einen Anhaltspunkt hat. Sofern das Ganze natürlich überhaupt klappt. Ich wusste bisher nichts von der Problematik... Es wäre cool, wenn so etwas im Test zumindest grob erwähnt würde. Wenn man nicht so genau informiert ist, ist das ja schonmal eine nützliche Erklärung für eventuelle Ungereimtheiten.
 
Zuletzt bearbeitet:
Eine Sequenz von einer halben Minute ist lang genug um den Teil der Texturen im Vram abzulegen der gebraucht wird für die aktuelle Darstellung,und wenn das Speichermanagement gut arbeitet wie bei 99% aller PC Games nimmt der Vram Verbrauch auch bei 5-6Minuten oder mehr nicht in dem Maße zu,das es für den Datenbus schlagartig zum Killer wird.Wenn vernünftig aus und eingelagert wird,bleiben nur die Texturen im Vram liegen die auch wirklich benötigt werden imo.

Was damals schon keine Wirkung zeigte bei 3GB 580ern hat heute ebenso noch Bestand,denn am Umfang der Texturen hat sich seither nichts geändert,und bis Konsolen auf einem höheren Level angelangt sind,wie heutige Referenzgrafikkarten dauert es mitunter auch noch weitere Grafikkartengenerationen.

Das ist viel zu pauschal beschrieben. Selbst wenn PCGH eine wie immer anspruchsvolle Scene raus sucht, dann heißt selbst das noch nicht das es eine Scene ist die den Vram stark belastet. Man muß es in der Tat differenziert betrachten, individuell. An drei Monitoren oder an 3D können 3 GTX 680 passen, es kann aber auch im ungünstigsten Fall mit einer Karte@2GB in spezial Settings in die Grütze gehen.

Nein, kein Bestand scully, die 3GB funktionieren heute wie damals. Man muß sie nur nutzen, ist nicht jedem vergönnt....
 
Hmm, dann könnte man ja eventuell eine andere Auflösung antesten. 1920x1200 ist ja nahe dran, damit man wenigstens einen Anhaltspunkt hat. Sofern das Ganze natürlich überhaupt klappt. Ich wusste bisher nichts von der Problematik... Es wäre cool, wenn so etwas im Test zumindest grob erwähnt würde. Wenn man nicht so genau informiert ist, ist das ja schonmal eine nützliche Erklärung für eventuelle Ungereimtheiten.

Hab mir jetzt nochmal den CB Test angeschaut dort greift das Profil allerdings bei allen gängigen Setups,erst beim Triple Display zeigt es keine Wirkung

Kurztest: GTX 680 SLI vs. HD 7970 CF (Anhang 12) - ComputerBase

Da muss was anderes die Ursache sein für den 50% Performanceabfall

Vielleicht macht der neuere Treiber mehr Probleme wie der alte den CB verwendet hat

Catalyst 12.3 CAP 1(HWLUXX) vs Catalyst 11.11c Performance-Treiber(CB)
 
Zuletzt bearbeitet:
So, wir oder besser der Kollege hat das noch einmal geprüft. Neuer Wert: 469,2 Watt

Es lag wohl ein Messfehler vor, vermutlich schaffte es die Karte nicht in den CrossFire-Modus im entsprechenden Benchmark. Ich werde das morgen oder später noch korrigieren. In zukünftigen Diagrammen wird es dann so oder so verbessert sein.

Ok, das liegt in den eher erwarteten Gefielden der Karte, vielen Dank für die Nachforschung!
 
@Blade, die HD7970 taktet aber nun mal nicht mit 1050MHz also ist sie langsamer als die GTX680.
Die GTX680 machen ja auch alle problemlos 1200MHz.
Jo stimmt schon, aber meine beiden Karten brauchen sich ganz bestimmt nicht vor 2 680ern zu verstecken. Das sie @stock langsamer sind ist klar.
 
Jo stimmt schon, aber meine beiden Karten brauchen sich ganz bestimmt nicht vor 2 680ern zu verstecken. Das sie @stock langsamer sind ist klar.

sobald die bzw eine ati mal schneller ist rennen eh alle wieder zu ati und diskutieren nv in grund und boden und genauso würde es gehn wenn dann nv wieder nachlegt. Das spielchen würd wohl ewig so weiter gehn ;)
Nur süß mit anzusehn wie die Leute sich ne Karte kaufen um eine woche später zu verkaufen sich wieder ne neue kaufen und dann nochmal verkaufen und von vorne. Sinn ergibt das irgendwann nicht mehr und wer den bzw die größte hat ist sowieso fast jedem egal ;) zumindest ab nem gewissen alter/geistigen alter :wink:
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh