Test: AMD Radeon HD 7970 CrossFire vs. NVIDIA GeForce GTX 680 SLI

Nur süß mit anzusehn wie die Leute sich ne Karte kaufen um eine woche später zu verkaufen sich wieder ne neue kaufen und dann nochmal verkaufen und von vorne. Sinn ergibt das irgendwann nicht mehr und wer den bzw die größte hat ist sowieso fast jedem egal ;)

Es wird gerade an Pharmazeutischen Produkten gegen Hardwaregeilheit geforscht.................Erfolge stehen jedoch bisher noch aus.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
"Wer momentan den Aufbau eines Multi-GPU-Systems plant, dem legen wir ein SLI-System bestehend aus zwei GeForce GTX 680 nahe. Die Grundperformance und höher als bei zwei Radeon HD 7970 und durch weitere Treiber-Optimierungen dürfte NVIDIA auch noch etwas an Leistung hinzugewinnen. "

Klar, und bei AMD wird es natürlich keine Treiber-Optimierungen geben!!! o_O
Ich behaupte sogar das bei den AMD mehr Optimierungs-Potenzial vorhanden ist als bei den NV 680ern.
Geht es hier nun schon los wie auf CB? Grüne Brille lässt grüßen.

Komisch , ich dachte es ist eher die Rote, so kann man sich täuschen Romsky
 
1. Kann denn generell gesagt werden,dass man keine Probleme mit µ-Rucklern bekommt, wenn man konstat 60 FPS hat?

2. Was ist eigentlich mit dem PCIe 3.0 Thema? Gibt es merkliche Performanceeinbußen, wenn man statt PCIe 2.0 x16 "nur" 2x PCIe 2.0 x8 nutzt?
 
Zuletzt bearbeitet von einem Moderator:
könnt ihr mir erklären, woran des liegt, das die 680gtx nahezu überall schneller ist ? weger des höheren GPU Taktes ? Wenn die 7970 den selben Takt hätte wie die 680gtx, wie würde es dann aussehen ?

Die "nur" 2GB Vram reichen ja selbst bei höchsten Auflösungen aus um nicht FPS zu verlieren
 
Danke für den Test, der im Grunde das nochmals komprimiert wiedergibt, was hier in den einschlägigen Threads bereits seit Wochen/Monaten diskutiert und herausgefunden wurde.

Ich kann es kaum erwarten, bis mein 680er SLI-Gespann endlich auf "Tauchstation" gehen kann. :d
 
Oh man, schon krass... hier laufen Leute rum mit 2x GTX590 uund wollen nun 2x GTX680 und as dann auf nem P67 Board.... wenn dann sollte man das schon richtig machen. X58 oder besser noch X79 Boards nutzen.

Aber so ist das nun mal bei HW-Freaks.
 
Darum ging es doch gar nicht sondern um das Eliminieren von Microrucklern

...

das entspricht aber nunmal nicht mehr ganz der Realität,denn sie können zumindestens reduziert wenn nicht ganz eleminiert werden bei genug Rechenpower,wenn das gesetzte Framelimit konstant gehalten werden kann

Das ist halt eine Frage der persönlichen Empfindungen. Ich für meinen Teil baue mir ein CF/SLI auf, weil ich mehr Grafikverschönernde Maßnahmen ergreifen will, und nicht, weil ich die FPS aufs max. treiben will. Das heist, wenn ich sagen wir mit einer Karte im Schnitt 30 FPS erreiche, mit dem SLI dann im Optimalfall 55-60 FPS, drücke ich diese mehr FPS Rate durch höhere Settings wieder auf Niveau der Single GPU. Wo soll dann der Limiter eingesetzt werden?
Der Limiter bringt es dort, wo man genügend Luft in Sachen FPS mit seinen Settings hat, um dort eben die Bremse einzuschmeißen, was die MR beseitigt. Hat man diese Luft nicht, bringts der Limiter auch nicht. Weil man entweder Details runter schrauben muss, um sich diese Luft zu schaffen, oder eben man lebt damit.
Liegen die FPS hingegen mit eigenen Settings so hoch, das FPS Raten von 60+ FPS zu sehen sind, dann kannst du dir ebenso den Limiter sparen, weil einfach die Frametimes so gering sind, das die Unterschiede wiederum nahezu gar nicht ins Gewicht fallen.

Wie gesagt, der Limiter ist ein nettes Feature, bringt aber eben nur wenig, wenn die FPS nicht genügend hoch sind. Gerade in den FPS Bereichen, wo die MR von den meisten Leuten störend aufgenommen werden, ist der Limiter hinderlich, weil dort zählt jedes Frame mehr Leistung pro Sekunde für flüssiges zocken. Dort zu limitieren empfinde ich persönlich aus unsinn.
Schwierig ist halt, das die FPS nicht konstant am Spiel anliegen. Szene A bringt 30 FPS, 5min Später bei veränderter Welt liegen auf einmal 50 FPS an. Ein absolutes Limit zu wählen ist da ziemlich schwierig.

Eine Sequenz von einer halben Minute ist lang genug um den Teil der Texturen im Vram abzulegen der gebraucht wird für die aktuelle Darstellung,und wenn das Speichermanagement gut arbeitet wie bei 99% aller PC Games nimmt der Vram Verbrauch auch bei 5-6Minuten oder mehr nicht in dem Maße zu,das es für den Datenbus schlagartig zum Killer wird.Wenn vernünftig aus und eingelagert wird,bleiben nur die Texturen im Vram liegen die auch wirklich benötigt werden imo.

Der Sinn eines schnellen Speichers ist eigentlich, möglichst viele Daten schnell bereit zu stellen. Ein Aus/Umlagern der Daten wiederspricht sich damit irgendwie massiv ;)
Auch spiele ich nicht nur 30 Sekunden am Stück... Sondern auch mal ein paar Stunden am Stück. Und dort liegt das Problem, 30sec Benchdauer können eben nur 30sec wiederspiegeln. Wenn der Player eine Sekunde danach einen Levelabschnitt betritt, der Texturtechnisch vollkommen anders ausgebaut ist, entstehen Nachladeruckler, wenn nicht genügend Platz ist.
Das Spiel kann nicht für den Spieler mitdenken, es weis nicht, wohin du gehst usw.
Gerade bei OpenWorld Games kann dies zum Problem werden. Extremstbeispiel dabei ist Gothic3... Das Spiel hat wohl die größte Welt, welche man gänzlich ohne Ladebildschirme am Stück betreten kann. Drei Klimazonen mit massiv unterschiedlichen Texturen. Und wenn du da von der Wüste ins Grünland läufst, müssen die Texturen irgendwo herkommen. Gehst du wieder zurück wird wieder umgelagert.
Benchst du eine Szene, die genau diesen Übergang beinhaltet, hast du Nachladeruckler, wenn der VRAM nicht groß genug ist. Benchst du eine Szene, die in einer Klimazone only spielt, hast du diese nicht. Auch ist der VRAM usage massiv geringer.
Auch wenn das wirklich ein Extrembeispiel ist, die Faktenlage bleibt bei nahezu jedem Game identisch... Wenn auch teilweise nicht so massiv ausgeprägt.

Naja, man kann den Framelimiter in seiner Komplexität nun nicht mit z.Bsp dem Inspector vergleichen. Der fps Limiter sind drei klicks im Afterburner, vermutlich auch bloß in EVGA Precision.

Das mit der Vergleichbarkeit scheint das Hauptproblem zu sein. Es wird von Testern natürlich nie ein "100% Suppi" für den Limiter geben, schon weil der im Zweifel eine Menge Mehrarbeit bedeutet ;)

Nö, ich benutze den Limiter sogar mit nur einer Karte, hab mich total dran gewöhnt. Wobei das mit der Gewöhnung erstmal schwer fällt seine sagenhaften 120 fps los zu lassen. Wenn man erstmal begriffen hat das die total nutzlos sind und das es wirklich nur auf die min Fps ankommt, dann geht es ganz locker. Denn man richtet sich doch ein Spiel nach der Bottomline ein. Aber zugegeben, man muß es für jedes Spiel justieren.

Ob einfach oder nicht, ist ja erstmal egal, Problem ist, es muss für jedes Game dediziert justiert werden. Und man kann nicht vorher einfach mal was irgendwie eindrehen, eigentlich muss man das Game erstmal durch spielen, dabei die FPS im Auge haben, um dann den Limiter für den zweiten Run optimal setzen zu können. -> umständlich ohne Ende.

Und zum letzten, neja ich sag mal so, mein Monitor sieht äußerst selten FPS von 100+. Wenn sowas ist, dann wird da SGSSAA oder Downsampling draufgedrückt. Ich versuche mich sogut es geht im FPS Bereich ~60 FPS im Schnitt einzufinden. Was mit einer GTX680 schwer ist bis unmöglich ist, mit zweien aber machbar.
Wer bei zwei aktuellen HighEnd Karten die Leistung unbenutzt liegen lässt, der kann auch gleich ne Nummer kleiner kaufen und spart ungemein Kohle ;)

Nein, kein Bestand scully, die 3GB funktionieren heute wie damals. Man muß sie nur nutzen, ist nicht jedem vergönnt....

So schauts aus... Bei der GF110 GPU mussten es sicher keine 3GB sein, die 1,5GB bekommt man aber gerade im SLI schnell zum bröckeln. Vor allem verstehe ich an der Stelle scully nicht so ganz, er fährt ein Quad SLI, GPU Leistung brachial, VRAM aber am Limit. Ich wüsste gar nicht, für was ich zwei weitere 680er brauchen würde bei 2GB VRAM. Für weitere Qualitätssteigernde Maßnahmen bleibt zu wenig VRAM.
Beispiel Skyrim, 4xSGSSAA + ein wenig Downsampling, ohne groß Mods aber mit erhöhter Sichtweite im Game läuft mit einer Karte ins VRAM Limit. Mit zwei Karten sind da ~40-50FPS drin. Wäre voll spielbar, wenn nicht alle Nase lang die Nachladeruckler währen, wie beim eintreten in Häuser usw.

1. Kann denn generell gesagt werden,dass man keine Probleme mit µ-Rucklern bekommt, wenn man konstat 60 FPS hat?

2. Was ist eigentlich mit dem PCIe 3.0 Thema? Gibt es merkliche Performanceeinbußen, wenn man statt PCIe 2.0 x16 "nur" 2x PCIe 2.0 x8 nutzt?

MR ist allgegenwertig, wenn man AFR als Rendermodus nutzt (was die meisten Gameprofile nutzen) und wenn man mit dem Limiter nicht gegen vorgeht.
Selbst bei 500 FPS hättest du MR, weil MR einfach nur eine ungleichheit der Frametime zwischen zwei Frames ist. Das heist, zwei aufeinander folgende Bilder ausgegeben von jeweils einer Karte liegen zeitlich mal dichter zusammen, mal weiter auseinander. Diese Schwankung merkt man.
Um so niedriger die FPS, desto mehr könnte man das ganze spüren... weil die Abstände so groß sind, das man es einfach ruckelnd wahrnimmt.

Pauschal zu sagen, ab so und so viel FPS nimmt man es nicht wahr, ist leider nicht machbar, weil jeder Mensch das Verhalten anders aufnimmt. Manche sehen selbst bei 30 FPS keine MR, manche noch bei 60+ FPS


Zum Thema PCIe, PCIe 3 bringt dich nur unwesentlich vorran. Geschwindigkeitszuwachs quasi Null.
Selbst 2x8x PCIe 2.0 langen vollkommen im SLI. Wenn man hier und da mal ein zwei Prozent liegen lässt, ist das viel. Es gibt sogut wie keine Beeinträchtigung.
Ein Extrembeispiel ist CoD4:MW. Da gibts wohl aktuell mit Abstand den meisten Abzug, wenn der PCIe Slot limitiert. Aber selbst das ist bei heutigen GPUs zu vernachlässigen, weil die FPS so oder so jenseits von gut und böse liegen :fresse:

könnt ihr mir erklären, woran des liegt, das die 680gtx nahezu überall schneller ist ? weger des höheren GPU Taktes ? Wenn die 7970 den selben Takt hätte wie die 680gtx, wie würde es dann aussehen ?

Die "nur" 2GB Vram reichen ja selbst bei höchsten Auflösungen aus um nicht FPS zu verlieren

Na ganz einfach, weil sie einfach schneller ist...
Das hat nur zum Teil mit dem Takt zu tun. Architekturtechnisch baut NV auf andere Sachen auf als AMD. Das ganze ist bei gleichem Takt so oder so nicht 100% vergleichbar.

Oh man, schon krass... hier laufen Leute rum mit 2x GTX590 uund wollen nun 2x GTX680 und as dann auf nem P67 Board.... wenn dann sollte man das schon richtig machen. X58 oder besser noch X79 Boards nutzen.

Aber so ist das nun mal bei HW-Freaks.

Richtigerweise verwendet man Sandy oder Sandy-E... Mit Nehalem erreicht man idR nicht so hohe CPU Taktraten, damit man bei nem hochgezüchteten SLI aus zwei 680ern oder zwei Tahiti XTs die Karten voll ausfahren kann.
Ob da nun PCIe 2.0 8x anliegen oder zwei mal 3.0 16x merkt kein Mensch. Bestenfalls ist das ganze messbar. Aber keinesfalls spürbar.
 
Du das stimmt nicht, fdsonne. Wenn ich um die 35fps habe und es stark mikroruckelt, ist es viel viel angenehmer, limitierte 33fps zu haben z.B. Ja, es sind keine 50fps, aber das war es vorher auch nicht!
Das Schwanken ist allerdings wirklich ein Problem, da geb ich dir Recht.
 
Wenn du im Schnitt 35FPS hast, bringt dir der Limiter auf 33FPS aber wenig. Weil du eben Tiefschläge weit unter 33FPS haben wirst. Je nach Szene kann das sogar recht häufig dann auftreten.
Und hier sehe ich das Problem. Wir sprechen ja vom Durchschnitt des Durchschnitts. Also vom Durchschnitt über die Zeit der FPS Rate.

Der Limit müsste optimaler Weise auf den min FPS Wert gesetzt werden, welcher über eine längere Spielzeit ermittelt wurde. Somit gehst du jeglichen Tiefschlägen aus dem Weg.

Aber wer macht sowas?
Wenn ich 60 avg. FPS habe, kann das minimum auch gut und gerne bei 30 oder 35 liegen. Würde ich dort dann ein Limit eindrehen, kann ich gleich eine Karte ziehen und mit nur einer spielen und hätte dabei das gleiche Spielempfinden mit "runden" Frametimes.


Wie gesagt, der Limiter ist so schon mal nicht wirklich schlecht, das ganze geht aber in meinen Augen nur auf, wenn die FPS möglichst stabil und vor allem gleichbleibend sind. Und wenn das FPS Niveau recht hoch ist. Um dann mit dem Limiter eben nicht zu niedrig zu müssen... Je nachdem bist du dann aber schon wieder an dem Punkt, das du so viele FPS hast, das du selbst die MR gar nicht mehr feststellst. -> meine Meinung.
 
Zuletzt bearbeitet:
Ich mach das - vorausgesetzt, das Limit liegt nicht zu tief. Mikroruckler stelle ich noch bei 45-50fps fest je nach Spiel. Dynamisch wird das nicht gehen, der Limiter weiß ja nicht, wieviele fps ich in der nächsten Sekunde habe. Ich könnte mir vorstellen, dass es dann ordentlichen Schluckauf gibt.
 
Nein, aber er weis es rückwerts. ;)
Und anhand des steigenden Imputlags mit zunehmender GPU Anzahl im AFR Rendermodus würde man bequem auch ein Frame weiter als Puffer nutzen können und eben die Frametime im Schnitt über die letzten beiden Frames (bei zwei GPUs) angleichen können.

Der Limiter macht ja im Grunde so auch nicht viel anderes, nur das er eben anhand einer variablen Frametimeausgabe eine fix eingestellte nimmt.
Bei eingestellten 30 FPS im Limiter liegt die Frametime bei 33,33ms.
Man könnte jetzt beispielsweise die durchschnittliche Frametime der letzten beiden Frames (bei zwei GPUs) nehmen (üblicherweise schwankt bei Microrucklern mit zwei GPUs die Frametime ja jeweils zwischen zwei Werten auf und ab) und diesen Durchschnitt als Limiter setzen. Nur muss das eben für jeden weiteren Frame neu gesetzt werden sozusagen.

Das einzige was man dann hätte, steigende FPS Raten würden erst jeweils ein paar Frames später zu sehen sein, weil eben immer mit dem durchschnitt der letzten beiden Frames ausgegeben wird.


Sowas stell ich mir als ausgeklügelte MR bekämpfung vor. Und nicht so ne halbgare Sache wie ein absoluter Limiter, welcher mich in Sachen Leistung eindrosselt.
 
Nvidia macht ja dieses frame metering (in Hardware?). Ich könnte mir vorstellen, dass das schon sowas ähnliches ist. Ob das noch besser geht per Software, wage ich zu bezweifeln. Leider gibts dazu praktisch keine Infos, ist natürlich ein gutgehütetes Geheimnis, wie das funktioniert.
 
Wenn ich mal ne freie Minute finde, quatsch ich mal mit Orb. Vllt lässt sich da über den Inspector was einbauen.
Interessant wäre, ob man das Framelimit bei laufendem Game munter anpassen kann oder ob dazu ein Spielneustart nötig ist...

PS: das was NV da macht ist halbherzig, wenn überhaupt. Das Problem ist einfach, man verliert definitiv absolute Leistung, das ist Fakt. Und an der Stelle stell ich mir das schwierig vor. Gerade wenn es aus dem eigenen Haus kommen soll. Wenn da von heute auf morgen 10 oder auch 20% weniger Leistung bei rum kommen, wäre das ziemlich unschön für NV. Ich denke eher, das diese uminöse Funktion so wenig wie möglich auf Leistungsverlust getrimmt ist. Und somit auch wohl wenig Effekt erziehlt.
 
Oh man, schon krass... hier laufen Leute rum mit 2x GTX590 uund wollen nun 2x GTX680 und as dann auf nem P67 Board.... wenn dann sollte man das schon richtig machen. X58 oder besser noch X79 Boards nutzen.

Aber so ist das nun mal bei HW-Freaks.

Hi hab auch nen p67 Board, welchen Vorteil soll denn ein x58 Board deiner Meinung nach haben :-) ?:rolleyes:
 
Wenn ich mal ne freie Minute finde, quatsch ich mal mit Orb. Vllt lässt sich da über den Inspector was einbauen.
Interessant wäre, ob man das Framelimit bei laufendem Game munter anpassen kann oder ob dazu ein Spielneustart nötig ist...

Kann man anpassen (aber leider nur bei externen Tools - bei allem, was man im Nvidia Treiber einstellen kann, ist ja schon seit Ewigkeiten ein Neustart des Spiels nötig). Mach ich bei neuen Spielen, wo ich das beste Limit für mich rausfinden will, oft.

PS: das was NV da macht ist halbherzig, wenn überhaupt. Das Problem ist einfach, man verliert definitiv absolute Leistung, das ist Fakt. Und an der Stelle stell ich mir das schwierig vor. Gerade wenn es aus dem eigenen Haus kommen soll. Wenn da von heute auf morgen 10 oder auch 20% weniger Leistung bei rum kommen, wäre das ziemlich unschön für NV. Ich denke eher, das diese uminöse Funktion so wenig wie möglich auf Leistungsverlust getrimmt ist. Und somit auch wohl wenig Effekt erziehlt.

Moment, der Framelimiter kam auf Wunsch und Drängen der Community. Nvidia sieht den Nutzen hauptsächlich für eine GPU und das Stromsparen. Dass die frame metering Geschichte gut was bringt, sieht man seit jeher daran, dass SLI flüssiger als CF ist. Zuletzt wieder hier:
HARDOCP - Introduction - GeForce GTX 680 3-Way SLI & Radeon 7970 Tri-Fire Review

Das frame metering kostet sicher ein bisschen Performance. Nicht umsonst heißt es ja immer, CF hätte eine bessere Skalierung als SLI. Das mag oft so sein, aber was hinten rauskommt, ist halt bei Nvidia besser. Es ist aber laut Nvidia auch so, dass der Wirkungsweise Grenzen gesetzt sind durch Engine und Datenmengen. In Spiel A/Szene A funktioniert es gut, in Spiel B/Szene B bringt es wenig.
 
Zuletzt bearbeitet:
Ich meine ja auch nicht den Limiter ;)
Sondern diese ominöse Funktion, welche angeblich MR eindämmen soll... Seitens NV gabs da mal ein Interview, ich glaube mit PCGH. Und auf die Frage, warum das ganze in Games nicht funktioniert, welche eben von Haus aus massiv zum Microruckeln neigen (Metro2033, Crysis1 beispielsweise) kam diese in meinen Augen sinnfrei Antwort mit der Datenmenge. Nur ist das irgendwie quatsch, die Datenmenge ändert sich ja nicht, diese Funktion kann nur nach dem Rendern des Bildes ansetzen, wie soll das anders gehen? Und nachdem das Bild durch die GPU durch ist, ist es rein logisch gesehen ziemlich Banane, ob das Bild von Crysis kommt oder von irgend einem anderen Wald und Wiesen Game.
Das mein ich mit Halbherzig. Dort wo MRs massiv auffallend waren, wirkt diese Funktion absolut nicht, und dort wo es so schon vertretbar war, kann man ggf. Minimal abhilfe schaffen.

Und wie du schon sagtest, du siehst die MR selbst, die Funktion selbst kann also nicht sonderlich viel bewirken ;) -> ergo ist es halbherzig umgesetzt.

Ggf. hätte man lieber ein Ein/Ausschalten einer derartigen Funktion zulassen sollen, aber eben die Funktionsweise so hintrimmen sollen, das es auch was bringt. Die erkaufte Minderleistung wäre dann für den User selbst bestimmbar, ja oder nein.


Und zu dem Test, neja ich persönlich verlasse mich beim Thema MR auf meine eigenen Augen, nicht auf die von anderen ;)
Meine bis dato CF Tests mit beispielsweise ner HD4870X2, HD5870 CF und nem Kurztest mit zwei HD6970 Karten zeigt nicht sonderlich viel weniger "smoothness" zu einem 470GTX SLI oder einem 680GTX SLI.
Steigender "smoothness" Faktor kommt sicher in erster Limie durch steigende FPS. Wo die zwei 680er in Skyrim 4xSGSSAA spielend auf einer A. Backe abdrücken, kommt man da beispielsweise mit zwei HD5870ern schon schneller ans Limit. Dementsprechend auch weniger "smoothness".
Aber selbst zwei 680er sind mit 25-30FPS in manchen massiv MR zeigenden Games alles andere als brauchbar ;) Und selbst wenn es besser sein sollte, als bei den AMDs ist es immernoch nicht spielbar.
 
Ich hätte da differenzieren sollen - es kommt schon auf das Spiel an, ob man es merkt bzw. ab wann.
Ich könnte mir vorstellen, dass Nvidia die drawcalls (nennt man das so?) VOR der Berechnung des Bildes abfängt und neu anordnet.

Das mit der smoothness sagen viele Reviews. Das ist jetzt bestimmt das siebte oder achte auf [H], das das erwähnt. Man liest es hier, in den CB-Reviews...der Vorteil, den die haben ist, dass sie die Dinger zeitnah testen können. Wir haben ne Dualkarte oder SLI/CF, dann vergehen ein paar Monate/Jahre und wir wechseln und die Bedingungen sind wieder völlig anders. Ich kann mich nicht erinnern, wie sich 50fps gestern angefühlt haben. Das ist genauso, wie wenn du mir zwei Farbtöne zeigst, einen gestern und einen heute, und mich dann nach dem Unterschied fragst. Keine zuverlässige Antwort möglich, außer der Unterschied ist wirklich massiv.
 
Klar damit hast du natürlich recht, dennoch reicht eigentlich das zu testen, was laut den Reviews mit dem Besten Ergebnis abschneidet. Und das wäre ja in dem Fall eben GTX680 SLI. Nur ist das Problem dort immernoch nicht behoben. Vor mir aus kann dann der Konkurent schlechtere Ergebnisse liefern, von gut sind wir bei beiden Entfernt. Differenziert betrachtet bringt es mir nichts, den zu loben, der das Problem zwar angeht, aber es nicht beseitigt und im gleichen Atemzug den runter zu machen, der nix gegen tut. Unterm Strich hab ich als Endkunde von beiden Maßnahmen nix ;)
 
Dann haben du und die Reviewer unterschiedliche Meinungen. Bei SLI tritt das Problem oft später auf was die fps angeht, sprich du kannst mehr Performance in Bildqualität investieren, bevor es mikroruckelt. Und wenn es bei denselben fps bei einem flüssiger ist als beim anderen, hast du doch natürlich was von. Verstehe dich da nicht wirklich.
 
Schade, habe den Artikel jetzt erst gesehen - sonst hätte ich mir dass posten (daß ich jetzt 2xGTX680 im SLI teste) sparen können.
Es geht mir nicht darum, dass es jeder wissen soll, sondern ich würde gerne die Erfahrungen austauschen. :)

Es ist mein erstes SLI überhaupt, reizen tut mich sowas seitdem es die Voodoo 2 gibt. :d

Nach anfänglichen Problemen, z.B. 2te Karte einbauen und einfach SLI nutzen - ging leider nicht (SLI wurde gar nicht erkannt).
Erst ein frisches Backup und eine anschließende Treiberinstallation (nach dem Einbau der 2ten Karte) lösten alle Probleme.

Mein erstes Test war "Arcania" und das lief im SLI hervorragend. Nächster Test war Alan Wake, meiner Meinung nach funktioniert da SLI nicht,
bei dem neueren Beta Treiber wurde wohl das Alan Wake SLI Profil hinzugefügt (hab ich noch nicht weiter getestet, da ich den WHQL nutze).

Bei Dirt2 staunte ich nicht schlecht als ich Frameraten von bis zu 250fps mit max Setting hatte, daß Spielgefühl einfach irre!

Heute konnte ich Crysis 2 testen, super! Eine GTX680 läuft zwar schon super, ABER: beim ersten gefecht am Brunnen brach die Framerate schon sehr ein (ca. 45fps).
Mit SLI sind es minimum 72 fps sonst eher richtung 90fps im Intro sinds mal 150fps..

Jetzt kommt aber der wichtige Part den der Artikel sehr gut beschrieben hat!

Man sollte sich VOR Anschaffung der Karten (egal ob ATI oder NV) Gedanken über das gesamte System machen,

- reicht das NT?

Ich überschreite in Crysis 2 ganz knapp die 500 Watt Marke, andere Games brauchen da weniger.

- die Kühlung !

Ich hatte jetzt Temps bis zu 84 Grad, den Staub in der Front entfernt sind noch 81 Grad.

Die Kühlung ist das größte Thema mit dem ich mich noch weiter beschäftigen muss,
liegt es am Case (LL Tyr 2000F) - sind die Lüfter (BeQuiet) zu schwach usw. usw.

Wieviel Platz ist z.B. bei welchem Mainboard zwischen den zwei Grafikkarten,

alles sind Faktoren die man bedenken sollte. :)
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh