NVIDIA GeForce GTX 980 und 970 mit Maxwell-Architektur im XXL-Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So 1. Run im Extreme - Karten sind auf Stock und ruhig. Muss kurz Mutsch aus dem Garten abholen und dann geht's weiter

Was machen 2 TI's auf Stock zum Vergleich?

NVIDIA GeForce GTX 970 video card benchmark result - Intel Core i7-4790K,ASRock Z97 OC Formula

wie jetzt du musstest in slot 1 und 3 gehen für sli?
steht ja auch im web das 1 und 2 mit jeweils x8/x8 gehen

hab nen z77, ob es bei mir auch so sein wird.. wobei ich nur 2x 3.0 16x habe
 
Wie viel Boost Takt lag denn an?

2 Ti hab ich keinen Plan, meine beiden 780er@1202:

NVIDIA GeForce GTX 780 video card benchmark result - Intel Core i7-4770K,MSI Z87 XPOWER (MS-7811)

@DooM1987

Das wäre doch der größte Schwachsinn wenn man für SLI die ersten beiden Slots verwenden müsste beim Z97 OC. Das Board besitzt 4 PCIE 3.0 x16 Slots warum also die beiden Slots mit dem geringsten Abstand? Die obere Karte würde gnadenlos überhitzen.

Bei deinem Z77 sind denke ich die ersten beiden gelben Slots für SLI gedacht.
 
Zuletzt bearbeitet:
Ja Slot 1 und 3 anstatt 1 + 2. Hab Precision runter und den Afterburner drauf. Höchster Boost war bis 1240MHz auf beiden

Und im MB Bios die PCI-E den GEN auf 3 gestellt, mit auto Einstelungen zeigt GPU-Z PCI-E Version 2 an und nicht Version 3 an. Das war bei meiner ASUS Gene V genauso - kein Plan warum das auf auto nicht richtig erkannt wurde und wird oder GPU-Z liest falsch aus. Stell ich nochmal um und vergleiche die Ergebnisse der Bandbreite - wenn gleich dann wohl nur Auslesefehler
 
Zuletzt bearbeitet:
Wie viel Boost Takt lag denn an?

2 Ti hab ich keinen Plan, meine beiden 780er@1202:

NVIDIA GeForce GTX 780 video card benchmark result - Intel Core i7-4770K,MSI Z87 XPOWER (MS-7811)

@DooM1987

Das wäre doch der größte Schwachsinn wenn man für SLI die ersten beiden Slots verwenden müsste beim Z97 OC. Das Board besitzt 4 PCIE 3.0 x16 Slots warum also die beiden Slots mit dem geringsten Abstand? Die obere Karte würde gnadenlos überhitzen.

Bei deinem Z77 sind denke ich die ersten beiden gelben Slots für SLI gedacht.

darum geht es mir nicht..
mir geht es um die peinlichkeit das es heute noch falsch auf der hp steht ^^

hoffe ich, hab mir schon nen 3 slot fc terminal bestellt sammt wakü
 
@Atzenkeeper500:

GTX 780 Ti im SLI mit 4790K:

Search

Die 780 TIs liegen relativ komfortabel über deinem Resultat.
 
Zuletzt bearbeitet:
Ach so, ja das ist schon peinlich, es steht ja auch offenbar in Handbuch falsch ^^

Das mit dem Schwachsinn war auch nicht auf dich bezogen sondern auf Asrock, wäre eine extrem *hust* "ungünstige" Wahl der SLI Slots :d
 
finde ich auch ^^

hab mir bei Caseking ein 2er Bundle mit den 980er gekauft. (nicht verfügbar)
Ich hoffe die machen mein Paket mit einzelnen fertig, ist ja das gleiche Produkt.. aber lasst mich raten, so wird es nicht sein ^^
 
So nun bin ich zurück. Anbei aus dem PDF Handbuch die Einstellungen für SLI - das doch falsch oder lese ich falsch



Hier nochmal ein Run mit PowerTarget auf Anschlag und Voltage auch, ohne dass ich den Takt manuell geändert haben (Voltage hätte mit Sicherheit nicht müssen)
Boost war permanent auf 1240MHz bis auf den Physic-Test, aber dass liegt wohl an der niedrigen Auslastung bei dem Test

http://www.3dmark.com/3dm/4101579?

Danke Don
 
Zuletzt bearbeitet:
Mir persönlich kann das aber egal sein, denn nur hinten kackt die Ente.

Ist Schönreden die neuste Mode ?
Wer sich eine GTX 970 im Ref. kauft, der braucht zwar kein CUDA, kann es aber trotzdem nutzen. Ist das der Fall kann es zu einer gefährlichen Erfahrung werden. Oft sind Leute, die sich die GTX 970 kaufen, eben Leute, die nicht unbedingt das mega super extrem High-End-Netzteil besitzen. Durch die vorgegaukelten niedrigen TDP-Einstufung, sind vielleicht Nutzer nur mit 350 Watt Netzteilen daran mittels Laufwerkadaptern von Molex auf einen 6pin PCIe zu bauen. Dann kommt die Neugier auch mal CUDA auszuprobieren und schon ist die Nummer 112 im Telefon zu alarmieren.

Aber wir wollen es doch nicht so "Schwarz" sehen...
 
Zuletzt bearbeitet:
Nochmal 100MHz mehr auf GPU´s und 300MHz Plus auf den RAM - Max-Takt lag bei 1342MHz mit Drops

NVIDIA GeForce GTX 970 video card benchmark result - Intel Core i7-4790K,ASRock Z97 OC Formula

Mir gefallen die beiden, meine GTX 780 non TI ging an mein Kumpel vor 1 Monat für 300€ und für rund 350€ mehr habe ich 2 aktuelle Karten, mit 70% mehr Performance als vorher - für mich hat es sich gelohnt. Mit 2 TI´s lohnt wohl auch nicht auf GTX 980 umzusteigen, es sei denn man hat man wieder Lust auf Basteln und Benchen - solls ja geben:banana:
 
Nochmal rauf gelegt, Lüfterkurve angepasst und Karten lagen knapp unter 80 und ich konnte sie bei offenem Seitenfenster gut hören - geschrien haben sie aber nicht. Max Boost 1380MHz, hatte vor rund 1400 versucht und dann nach 10 Sekunden BlackScreen. Ggf. geht beim RAM noch ein bisschen und mit anderen Karten mit mehr Phasen + WaKü auch im SLI noch mehr. Ich denke durchs PowerTarget oder 2x 6Pin Stromversorgung sackt der Boost ab und kann nicht gehalten werden, aber da wird wohl über kurz oder lang was kommen - war ja immer so - es sei denn es liegt an der Stromversorgung. Was bei Games noch geht muss sich zeigen.

Sharif hatte geschrieben das er auf SLI mit 1300MHz hofft und ich denke das das zu packen ist

 
Zuletzt bearbeitet:
Wer sich eine GTX 970 im Ref. kauft, der braucht zwar kein CUDA, kann es aber trotzdem nutzen. Ist das der Fall kann es zu einer gefährlichen Erfahrung werden. Oft sind Leute, die sich die GTX 970 kaufen, eben Leute, die nicht unbedingt das mega super extrem High-End-Netzteil besitzen. Durch die vorgegaukelten niedrigen TDP-Einstufung, sind vielleicht Nutzer nur mit 350 Watt Netzteilen daran mittels Laufwerkadaptern von Molex auf einen 6pin PCIe zu bauen. Dann kommt die Neugier auch mal CUDA auszuprobieren und schon ist die Nummer 112 im Telefon zu alarmieren.

A) erzeugt nicht jede CUDA Anwendung gleichbedeutend derartige Volllast wie im THG Test als Max. Value zu sehen
B) sind die Randbedinungen aus dem THG Test überhaupt nicht klar (Stichwort PowerTarget und TemperaturTarget Einstellung, Stichwort länge der Messung, Stichwort, wann deckelt das PT die Karte ein)
C) was heist "mega super extrem High-End-Netzteil"? -> jedes handelsübliche NT mit 2x8Pin PCIe Stromsteckern packt 300W MINIMUM über die Stecker. Wie sollte man sonst 6+2Pin aka 8Pin PCIe Stromstecker befeuern können
D) was willst du mit Molex Adaptern? Nimmt man es nach Spezifikationen, sind diese Adapter so oder so kreuzgefährlich, da sie selbst die 75W formal nach Norm nicht aushalten müssen via Molex Stecker für "IDE" Laufwerke.

Irgendwie schiebst du hier gerade Panik wo du doch bei der 295X2 der warst, der die Sache dort schöngeredet hat :wink:
Aber was solls, jedem das seine...

Sollte sich das ganze wirklich so herrausstellen, das im default Zustand ohne händische Eingriffe, die Karte DAUERHAFT weit über Norm säuft, wie THG gemessen hat, dann ist das freilich definitiv mit Vorsicht zu genießen.
Aber an dem Punkt der Beweislage sind wir noch nicht... Wenn du mehr Infos darüber hast, immer raus damit, würde hier wohl so einige interessieren ;)
 
Zuletzt bearbeitet:
Ich werde mal BOINC testen, wenn ich meine 970 am Dienstag in den Händen halte :)
 
Wie ist das eigentlich mit den neuen Downsampling treiber kommt das auch für die alten karten?!?
 
die neuen 980/970 Maxwell Karten sind sicherlich nicht schlecht und die "User-Hype" gar bissel verständlich aber das so viele Redaktionen so ein Hype draus machen ist mir unverständlich. Bis auf die verbesserte Effizienz bitten die Karten nichts von dem was NVidia mal Versprochen hat. Zu Erinnerung, 2010 sagte NVidia das die Karten schon 2013 kommen werden, dann 2011 versprach Nvidias General Manager Michael Rayfield, dass Maxwell -Grafikchips sogar integrierte ARM Rechenkerne mitbringen sollen und gar Unified Virtual Memory. Dann 2013 die Korrektur die besagt das erst die Volta- Grafikchips (die erst nach Pascal kommen wird, also nicht vor 2017) ARM- Kerne haben werden und die Maxwell auf 2014 vorschoben wird aber immer noch mit Unified Virtual Memory und der 20-nm Fertigung.. Jetzt sind die Karten da und was übrig geblieben ist aus diesen vielen neuen Innovationen die diese Karten bringen sollten? Genau nicht viel außer der verbesserter Effizienz. Daher verstehe ich nicht wie so viele Redaktionen die diese Leidensgeschichte von Maxwell noch besser kennen sollten als ich, so ein "Über- positives" Bild der Karten für ihre Leser darstellen.
 
AMD hat in dieser Zeit mindestens genauso viel versprochen :d
 
DON (sorry hatte mich verschrieben) ich habe den von Dir geposteten Treiber installiert, kann aber noch keine Einschätzung zur Quali/Unterschied zum offiziellen Treiber der 9er Reihe abgeben. Wichtiger ist das ich DSR Einstellungen nur angezeigt bekomme wenn ich SLI deaktiviere? Ist das ein vermeintliches Treiberproblem, die Option nur woanders im Menü gelandet oder offiziell bekannt ? Gerad bei DSR macht doch die Power von 2 vorhandenen Karten noch mehr Sinn.

Ich habe nicht darauf geachtet was bei dem offiziellen Treiber angezeigt wird und ob sich das identisch verhält

EDIT: habe eben nochmal den offiziellen DayOne Treiber installiert und die DSR-Option sehe ich nur bei nicht aktiviertem SLI - mit SLI ist sie für mich nicht mehr vorhanden
 
Zuletzt bearbeitet:
die neuen 980/970 Maxwell Karten sind sicherlich nicht schlecht und die "User-Hype" gar bissel verständlich aber das so viele Redaktionen so ein Hype draus machen ist mir unverständlich. Bis auf die verbesserte Effizienz bitten die Karten nichts von dem was NVidia mal Versprochen hat. Zu Erinnerung, 2010 sagte NVidia das die Karten schon 2013 kommen werden, dann 2011 versprach Nvidias General Manager Michael Rayfield, dass Maxwell -Grafikchips sogar integrierte ARM Rechenkerne mitbringen sollen und gar Unified Virtual Memory. Dann 2013 die Korrektur die besagt das erst die Volta- Grafikchips (die erst nach Pascal kommen wird, also nicht vor 2017) ARM- Kerne haben werden und die Maxwell auf 2014 vorschoben wird aber immer noch mit Unified Virtual Memory und der 20-nm Fertigung.. Jetzt sind die Karten da und was übrig geblieben ist aus diesen vielen neuen Innovationen die diese Karten bringen sollten? Genau nicht viel außer der verbesserter Effizienz. Daher verstehe ich nicht wie so viele Redaktionen die diese Leidensgeschichte von Maxwell noch besser kennen sollten als ich, so ein "Über- positives" Bild der Karten für ihre Leser darstellen.

AMD hat in dieser Zeit mindestens genauso viel versprochen :d

Es geht mir doch hier nicht über "wer-was-wem Versprochen hat" sondern in welchem Licht die Redaktionen die Karten darstellen und allgemein um den Innovation-Armut der Maxwell Architektur die so ja nicht kommen sollte ;)
 
Wie hier schon mehrfach gesagt, arbeitet NVIDIA wohl daran.

manch einer denkt noch immer wenn man 2k-4k möchte kann man auf einen 2 oder 4k monitor verzichten:d
300-600€ für eine graka hinlegen und am moni fehlts dann .....
am ende ist es dann nV schuld wenn man nur 1080p hat
 
DON ich habe eine Frage sind die Benchmarks mit den GTX970/980 mit Absicht mit Boost ge bencht und die GTX780/780TI ohne Boost. Habt ihr Manuel auf die Karten zugegriffen damit sie nicht mit Boost laufen, damit die neuen Karten besser dastehen. Wurde das von NV verlangt. Ich meine auch wenn das so wäre würde keine Zugeben.

Weil wenn hier User vergleichen kommen andere Ergebnisse. Eine GTX970 + OC 1500Mhz ist langsamer als ein GTX780 wo liegt der Hacken.
Könntet ihr bitte Klarheit schaffen viele sind verunsichert Danke Dir.
 
DON ich habe eine Frage sind die Benchmarks mit den GTX970/980 mit Absicht mit Boost ge bencht und die GTX780/780TI ohne Boost. Habt ihr Manuel auf die Karten zugegriffen damit sie nicht mit Boost laufen, damit die neuen Karten besser dastehen. Wurde das von NV verlangt. Ich meine auch wenn das so wäre würde keine Zugeben.

Laut dieser Aussage von Don:
http://www.hardwareluxx.de/communit...ektur-im-xxl-test-1038224-2.html#post22652273
wurde mit default Einstellungen getestet.

Sprich die Karten boosten soweit wie es die default Settings hergeben. Alles natürlich im Rahmen der Temperatur/Powertarget Abhängigkeiten.

Wenn bei Usern andere Werte rauskommen, könnte das wohl auch an völlig verschiedenen Testsystemen liegen!?
 
Hm, trotzdem komisch, dass eher von deutlich schlechteren, zumindest aber von nicht den Erwartungen entsprechenden Resultaten die Rede ist, und wenig bis gar nichts von Ergebnissen, die die "offiziellen" Tests bestätigen.
 
nur was soll denn mit den Tests sein?
Da müssten sich doch die Redaktionen so ziemlich einig sein, alle samt irgendwie da die Handbremse reingehauen zu haben. Und dann vor allem noch so, das die Karte, die mitgetestet werden, untereinander sogar noch schlüssige Werte aufzeigen...
-> ich glaube mal nicht, das das der Wahrheit entspricht ;)

Mal ganz davon ab, sollte man sich viel eher die Frage stellen, warum sollten die Redaktionen das überhaupt machen?
Es geht hier schließlich nicht um irgendwelche Leaks, die Klicks ohne Ende erzeugen sollen. Sondern es geht hier um stink normale Reviews. Sogut wie jede Hardwareseite hat ein Review Online. Würde man hier durch irgendwelche Tricks massiv aus der Reihe tanzen mit den Werten, würde das arg auffallen und die Seriösität wäre dahin. Das macht doch keiner freiwillig...

Der einzige Punkt der mir dazu einfallen würde, könnte maximal sein, das die Samples irgendwie selektiert sind und irgendwie besser gehen...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh