NVIDIA GeForce GTX 980 und 970 mit Maxwell-Architektur im XXL-Test

Hey Jungs ich habe derzeit eine 780ti die ich mit 1220 MHz betreibe.
Da ich ausschließlich in 5760x1080 Spiele bin ich am überlegen ob ich auf 2x970 im sli umsteige.
Da die Ti manche Games in der Auflösung einfach nicht packt.
Wie ist eure Meinung dazu würde das sli sinn machen.

Ziel sind max. Details mit min 60 Fps
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei deiner Auflösung... klar hat das 970 SLI mehr Leistung und mehr RAM.
 
Verkaufe deine TI zum guten Kurs aber nicht hier in HWL sondern Ebay klein Anzeige.

Praktisch hast du nachher zwei neue Karten für 640€.
So zu sagen zwei stock TI mit 4GB Ram
 
Hat hier jemand sich die Zotac 970 geholt? Das ist die einzige die in meinen Sugo passen würde. Würde gerne wissen wie die Lautstärke der Karte ist.
 
Bis jetzt habe ich zwei Spiele in SLI Schwierigkeiten gehabt das es anständig läuft.

DAYZ und Elder Scrolls Online.
Sonst kann man fast jedes Spiel SLI erzwingen über Inspector. Wenn ich CPU Limit hatte habe ich mit DS gespielt damit die Karten schön Skalieren und versucht mein 144FPS zu halten Zweck 144Hz.
Irgend wann habe ich die beiden TI einfach stock laufen lassen weil man extrem Leistung hat man weis nicht wo hin damit. Meine CPU I7 3770K ist einfach überfordert gewesen @4.8Ghz.

Aus dem Grund habe ich die Karten Stock betrieben je nach Spiel DS oder FPS im Auge gehalten.

DAYZ ist doch eher stark CPU limitiert, diese Kackengine interessiert es doch einen Dreck was für eine Grafikkarte du verbaut hast. -.-

Oder täusch ich mich da? Schon lustig das ARMA selbst mit heutigen Rechnern auf vollen Details immer noch nicht so richtig flüssig läuft. ^^

Mal eine andere Frage, wenn man zwei Grafikkarten mit einem Prozessor betreibt der für SLI nicht genügend "PCIe3.0-Lanes" hat, macht sich das in Spielen stark bemerkbar? Als CPU-Beispiel z.B. der Intel I7 5820k.....
 
A) erzeugt nicht jede CUDA Anwendung gleichbedeutend derartige Volllast wie im THG Test als Max. Value zu sehen

Na dann hat man wenigstens noch eine Chance nicht den Zock zu ziehen. Meinst du das damit ?

B) sind die Randbedinungen aus dem THG Test überhaupt nicht klar (Stichwort PowerTarget und TemperaturTarget Einstellung, Stichwort länge der Messung, Stichwort, wann deckelt das PT die Karte ein)

Wie sollen sie es geschafft haben ? Haben sie den Treiber manipuliert und selber einen Quellcode geschrieben, der das Power-Target umgeht ??
Wohl kaum. Sie haben einfach ein Lastszenarium erzeugt, was durchaus auch auftreten kann, so wie sie es geschrieben haben, das bei CUDA ect. solche Lasten entstehen können.

C) was heist "mega super extrem High-End-Netzteil"? -> jedes handelsübliche NT mit 2x8Pin PCIe Stromsteckern packt 300W MINIMUM über die Stecker. Wie sollte man sonst 6+2Pin aka 8Pin PCIe Stromstecker befeuern können

:confused: Stellst du dich wieder so an ?
Ist es so abwegig zu glauben, das nicht jedes NT über 2x8Pin Stecker verfügt ?
Wer sich einen, laut TDP-Angaben, sparsame High-End-Karte kauft, hat vielleicht gar kein so teures Netzteil im Rechner und 350-400 Watt sind eigentlich schon ausreichend. Laut Angaben wohlgemerkt.
Ist es dann nicht vorstellbar, das sich jemand aus Molex-Steckern einen 6pin PCIe-Stecker adaptiert ?

D) was willst du mit Molex Adaptern? Nimmt man es nach Spezifikationen, sind diese Adapter so oder so kreuzgefährlich, da sie selbst die 75W formal nach Norm nicht aushalten müssen via Molex Stecker für "IDE" Laufwerke.

Genau ! Und das weiß natürlich jeder, der so einen Adapter besitzt und die neuen NVIDIA-TDP-Pseudoangaben für bare Münze nimmt. :hmm:
Solange nicht explizit eine Warnung auf der Verpackung steht, das die Karte unter Umständen deutlich mehr Strom benötigt, ist es eher an Fall für den Verbraucherschutz.

Irgendwie schiebst du hier gerade Panik wo du doch bei der 295X2 der warst, der die Sache dort schöngeredet hat :wink:
Aber was solls, jedem das seine...

Eben. Bei AMD war es ein Spießrutenlauf mit ausgearbeitet Test, die über mehrerer Seiten ging, wie es sich nur AMD anmaßen kann sich über die PCIe-NORM zu erhebt.
Nun haben wir es auch bei NVIDIA die bei der GTX 970 sogar noch weit mehr drüber gehen, aber das will ja jetzt keiner mehr wissen. ;)

Sollte sich das ganze wirklich so herrausstellen, das im default Zustand ohne händische Eingriffe, die Karte DAUERHAFT weit über Norm säuft, wie THG gemessen hat, dann ist das freilich definitiv mit Vorsicht zu genießen.
Aber an dem Punkt der Beweislage sind wir noch nicht... Wenn du mehr Infos darüber hast, immer raus damit, würde hier wohl so einige interessieren ;)

THW hat bestimmt nur Mist gemessen und ihren Kühlschrank lief halt nur an der gleichen Dose mit. Was macht man sich nicht alles vor...
 
680vs980 muss man ja eig nur vergleichen, da fällt der Effizienzsprung deutlich kleiner aus, 30 Watt.
Also mal schauen ob AMD bei seiner nächsten Gen auch so um die 30w schafft, dann wärs ja ca. der gleiche Sprung.

Absolut falsch.
Warum? Weil Effizienz neben dem Verbrauch auch die Performance berücksichtigt, und der Sprung von der 680 auf die 980 beträgt im Schnitt über den Daumen gepeilt locker 160-170%.
Dabei verbraucht die 980 aber gegenüber der 680 in etwa die 30 Watt weniger (tatsächlich ist es wohl eher etwas weniger), im Schnitt beträgt die Effizenzsteigerung aber ca. 100%, d.h. die 980 leistet pro Watt gerechnet in etwa das doppelte der 680.

Siehe hier:
AnandTech | Short Bytes: NVIDIA GeForce GTX 980 in 1000 Words

Besser kann man's kaum zusammenfassen.
 
Was heist "bremsen"? Spürbar, also 10-20 Frames weniger so das sich die zweite Karte nicht mehr rentieren würde?
 
Mach dir da keine sorgen. Der unterschied ist nicht wirklich da von pcie 3.0 8x zu 16x.

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Absolut falsch.
Warum? Weil Effizienz neben dem Verbrauch auch die Performance berücksichtigt, und der Sprung von der 680 auf die 980 beträgt im Schnitt über den Daumen gepeilt locker 160-170%.
Dabei verbraucht die 980 aber gegenüber der 680 in etwa die 30 Watt weniger (tatsächlich ist es wohl eher etwas weniger), im Schnitt beträgt die Effizenzsteigerung aber ca. 100%, d.h. die 980 leistet pro Watt gerechnet in etwa das doppelte der 680.

Siehe hier:
AnandTech | Short Bytes: NVIDIA GeForce GTX 980 in 1000 Words

Besser kann man's kaum zusammenfassen.

Joa, hab die Performance weggelassen..danke für den Link.
 
richtig, so sieht es aus ;). Kann ja sein das jemand @144hz spielen will. Da wäre es dann ja relevant :d
 
Also ich persönlich kann die Zotac GTX 970 nicht empfehlen. Hab meine am Samstag bekommen, aber die Karte ist unerträglich laut. Selbst im Desktopbetrieb läuft einer der beiden Lüfter immer auf 100% und lässt sich nicht drosseln. Hab die Karte 2h später wieder ausgebaut und geht heute noch zurück.
 
@bruck

dann auch direkt irgendwo bewerten, nicht das noch jemand so nen reinfall dann zuhause mit bekommt
 
ASelbst im Desktopbetrieb läuft einer der beiden Lüfter immer auf 100% und lässt sich nicht drosseln.

also wenn das so gewollt ist, gehört der, der diese lüftersteuerung verbrochen hat entlassen. bei den herstellern müssen manche wirklich taub sein, anders kann man sich sowas nicht erklären.
 
also wenn das so gewollt ist, gehört der, der diese lüftersteuerung verbrochen hat entlassen. bei den herstellern müssen manche wirklich taub sein, anders kann man sich sowas nicht erklären.



Jede Karte lässt sich drosseln, das "muss" ein Anwederfehler sein. Ich hatte schon soviele karten in den händen und nicht 1ne ließ sich nicht "steuern"... Entweder hat sie ein defekt oder der Anwender ist das Problem, zumal 100% ziemlich unrealistischs ind, selbst für Zotac ;)
 
Ja, deine CPU würde beide Karten Bremsen.

Kannst du diese Aussage bitte fuer mich noch mal genauer formulieren? Ich stehe mit der Aussage, dass Grafikkarten CPUen ausbremsen bzw. umgekeht stark auf Kriegfuss.

Meine Formulierungen wuerde lauten:
1) Monitore bremsen CPUen aus (wobei das durch Downsampling inzwischen Nebensache wird)
2) Anwendungen sind zu stark CPU lastig als dass die Grafikkarte voll ausgelastet werden koennte (-> Downsampling)
3) Grafikanforderungen sind zu hoch fuer die gewaehlte Grafikeinstellung

Aber evtl hab ich auch einfach nicht verstanden was du sagen wolltest. Ich waere daher fuer eine Erklaerung dankbar, die nicht nur ne halbe Zeile lang ist.
 
Hat hier jemand die Inno3D GeForce GTX 970 OC, HerculeZ X2, 4096 MB DDR5 und kann was über Temperatur und Lautstärke sagen? Mein Gehäuse wäre wohl zu kurz für alle anderen 970 :(
 
Sharif schrieb:
Aber zwei GTX980 brauchen genau soviel Strom wie eine TI. So habe ich das verstanden dann wären trotzdem zwei GTX980 besser oder nicht als eine TI + OC.

Sobald man eine GTX 980 @ Max betreibt, unterscheidet sich der Strombedarf nur etwa 30 Watt zur eine Stock GTX 780 Ti, bei etwa 10 bis 15% mehr Performance.
Zwei GTX 980 benötigen wesentlich mehr Strom wie eine GTX 780 Ti, etwa 100 Watt selbst, bei Standardeinstellungen.
Die GTX 780 Ti ist übertaktet ca 20% schneller. 928 auf 1250mhz sind kein Problem, das sind 35% OC+ Ramtakt schlagen die auch durch.

GTX 980 OC wird von der Bandbreite gebremst, ich würd aktuell eher ne GTX 780 Ti kaufen, oder die GTX 970.
Die 980 ist nicht wirklich interessant.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh