NVIDIA GeForce GTX 1080 und GeForce GTX 1070 im SLI

@Don: Die von NVidia mitgelieferten Profile taugen nicht immer etwas. Hast Du mit dem NVidia Inspector die brauchbaren Profile aus dem 3dCenter geladen? Wenn nicht, bitte gegen testen.

Ich spiele nur TW3 von den angegebenen Spielen und habe dort mit zwei 980TI eine viel bessere Skalierung als Ihr im Test.

Gruß Thomas
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gibts eigentlich mittlerweile einen Test wie sich 2 oder 3 480er schlagen?
Das hätte super hier mit rein gepasst.
Oder hat man Angst , da könnte das 1080er Sli zersägt werden? ;)
Damals hies es beim Test der 480er ja es wäre nur eine Karte da und deswegen hätte man crossfire nicht mit getestet.
Ist das immer noch so?
Scheinen ja verdammt beliebt zu sein , wenn sich so ein großes Forum noch keine 2 Karten organisieren konnte.
Oder tu ich da gerade jemand unrecht und es gibt hier doch schon nen Test?
Was für ein Renderer wurde bei Doom verwendet?
Hab da nix gelesen oder es überlesen.

Aber ist auch spät und 6 Monate alte Kinder neigen dazu einem die Nacht nicht wirklich erholsam zu gestalten...
 
Gibts eigentlich mittlerweile einen Test wie sich 2 oder 3 480er schlagen?
Das hätte super hier mit rein gepasst.
Oder hat man Angst , da könnte das 1080er Sli zersägt werden? ;)
https://www.techpowerup.com/reviews/AMD/RX_480_CrossFire/
...Radeon RX 480 CrossFire is not a viable solution if you plan to buy two cards upfront. When averaged over all our games, it is consistently slower than a single GeForce GTX 1070 at all the resolutions that matter - 1080p, 1440p, and 4K. Instead of buying two cards upfront, you're much better off putting your monies into a single GTX 1070...
;)
 
Zuletzt bearbeitet:
Und hier zerlegt das Corssfiregespann die 1070/1080:
RX 480 Crossfire Performance: GTX 1070 Killer? – Hardware Unboxed
Immer nur ne Frage wie die Seite eingestellt ist...
Jo, das Gespann zerlegt die 1080:rolleyes:
zerlegen.jpg
 
Meine Sapphire 390x Nirto schluckt nicht so viel, also auch das gesammte System nicht. Wahrscheinlich wird eine Msi benutzt die ordenlich schluckt und auch viel zu heiß wird
 
Tja der Test zeigt das SLI sich nur lohnt wenn die favorisierten Titel das auch unterstützen, wenn ich mir da Witcher 3 anschaue ist das echt schwach.
Wobei ich lieber einen Test mit einem stärker übertakteten skylake 4 Kerner gesehen hätte.

Keine Ahnung was bei dem Test schief lief. Aber bei mir läuft Witcher 3 in 4K Ultra (bis auf Antialiasing und Bewegungs Unschärfe) mit 60 fps.
Auch jedes andere Spiel das SLI unterstützt und ich habe, läuft bei mir jetzt mit 60 fps, natürlich 4K Ultra.
 
Ich hätte einen zusätzlichen Vergleich zu einem Fury X Crossfire schön gefunden. Denn diese skalieren richtig gut – bspw. RoTR fast die doppelten FPS im Vgl. zu Single Fury X.
 
mir kommen die Werte sehr sehr niedrig vor, vor allem liegt in einem Test das GTX 1070 SLI Gespannt vor dem GTX 1080 SLI? o_O
 
Der Test ist ohne den Einsatz von PCIe3.0 etwas sinnfrei, davon profitiert gerade SLI gut.
 
Kleiner Fehler:
Im Testsystem wird ein Core i7-3960X und im Fazit dann ein Core i7-3950X genannt - was habt ihr denn nun verwendet?

Grüße
franeklevy
 
Bei dem Test scheint es tatsächlich so zu sein dass SLI nicht richtig funktioniert hat. Wenn man es mit anderen Tests vergleicht wie hier von techpowerup, dann skaliert da SLI viel besser. Es entspricht auch mehr meine Erfahrung mit SLI bei 2 gtx 970 Karten.
 
Bei mir ist es auch manchmal so das MGPU richtig funktioniert, und denn starte ich das spiel neu und die Karten verhalten sich
auf einmal völlig anders (negativ). Division und witcher sind da die Problem Kinder
 
Wüsste ich es nicht besser, hätte ich gefragt welcher Idiot kauft sich 2 GPU's für 5-10 FPS mehr ^^. Sorry was war den das für ein Test? Da ist doch etwas gewaltig schief gegangen? Dirt Rally und The Division ohne was grosses zu verändern habe ich mit den alten Titan's deutlich mehr FPS zwischen 1 GPU und SLI.
 
Bei dem Test scheint es tatsächlich so zu sein dass SLI nicht richtig funktioniert hat. Wenn man es mit anderen Tests vergleicht wie hier von techpowerup, dann skaliert da SLI viel besser. Es entspricht auch mehr meine Erfahrung mit SLI bei 2 gtx 970 Karten.

Danke. Der Techpowerup Test entspricht ebenfalls auch ehr meinen Erfahrungen mit 2 GTX980TI Karten.
 
Nutze auch das Asus P9X79 Deluxe jedoch mit dem 4960x. Bei Witcher 3 unter 4K habe ich nahezu eine 100% Skalierung. Der Test ist fehlerhaft.
 
lol, 1080 + witcher 3 ist ist der inbegriff von geld aus dem fenster werfen

edit: ich würde auch sagen, überprüft nochmal eure tests
 
Zuletzt bearbeitet:
Wenn ich das richtig sehe (auf dem GPU-Z Screen) kam nur PCI-E 2.0 zum Einsatz. Wünschenswert wäre ein Nachtest mit PCI-E 3.0 "Hack" auf dem Sandy-E System, sodass A) die SLI Skalierung überhaupt richtig beurteilt werden kann, denn 2.0 sollte hier stark limitieren und B) sieht man dann auch ganz genau, wie stark der Bus bei derartiger GPU Power mittlerweile limitiert.

@Don, ihr wärt Referenz im Internet mit einem solchen aktuellen PCI-E 2.0 vs PCI-E 3.0 Vergleich mit aktuellen GPU´s. Es gibt ein paar (inoffizielle User) YT Videos, die 3.0 x16/x16 vs 3.0 x8/x8 vergleichen und bereits dort sieht man sehr gut, wie stark der Bus limitiert mit der 1080. Alle anderen Bandwidth Vergleiche zwischen 2.0/3.0 bzw x16/x8 sind stein alt und wurde noch mit GTX680 Karten gemacht. Was aktuelles und vor allem offzielles von euch wäre wirklich sau stark!
 
Zuletzt bearbeitet:
Moin, euer Test enspricht nicht wirklich den Erfahungen die ich mit meinem System gesammelt habe.

Witcher 3 und RoTR skalieren sehr gut mit beiden 1080ern.
Vor allem RoTR unter DX12 profitiert stark, da das CPU Limit total wegfällt.

Beim Hexer beobachte ich aber auch bei meinem 5930K @4,3GHz das ebendieser ab und an der limitierende Faktor zu sein scheint.


Einfach mal das mGPU Testsystem auf Stand halten und nicht mit dem alten Prozessor angreifen wollen ;)
 
Da scaliert nichts besser sondern nur weniger schlecht ! Wie können denn 2 Karten @1080p bzw. 1440p in 8/16 Spielen
nicht schneller oder sogar langsamer sein ? Läuft die 2. Karte dann nur zum Spaß mit und verbraucht Strom für nichts ?
Dann darf die 2. Karte auch nur 50% kosten ! Das sind Millionenschwere Firmen und am Ende kommt so ein Mist raus ?

Naja wenn man die 4k Auflösung Benchmarks dazuzieht sieht man dass bei mehreren Spielen CPU limit in niedrigeren Auflösungen vorlag. Das kann man nicht unbedingt Nvidia vorwerfen dass es deren Schuld ist. SLI mit 2 1080 Karten lohnt sich aber nur für hohe Auflösungen.
 
Die Basis des Tests ist zu alt. Die CPU bremst die GPUs mit PCIe 2.0 doch nur aus.

Wer testet denn bitte eine so alte CPU mit Top modernen GPUs ;).
 
überprüft bitte eure tabellen denn dort ist heraus zunehemen das sli so gut wie kein performace gewinn bringt, im fazit steht aber 78%(was logischer erscheint)
 
Eine Aktualisierung Eures Testsystems wäre wirklich super!

Es muss ja kein 10 Kerner sein, aber ein aktueller 6Kern wäre schon super :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh