NVIDIA GeForce GTX 980 und 970 mit Maxwell-Architektur im XXL-Test

Wie sollen sie es geschafft haben ? Haben sie den Treiber manipuliert und selber einen Quellcode geschrieben, der das Power-Target umgeht ??
Wohl kaum. Sie haben einfach ein Lastszenarium erzeugt, was durchaus auch auftreten kann, so wie sie es geschrieben haben, das bei CUDA ect. solche Lasten entstehen können.

Ja dann erklär uns doch einfach mal, was die dort genau gemessen haben. Bitte mit Link zum Programm, und wenn selbst programiert, mit Quellcode...
Kannst du nicht? Schade...
Die Messung hat auf jedenfall den faden Beigeschmackt, das es für Keinen nachvollziehbar ist. Die Angaben zur Messung sind einfach nichtssagend und auch das Stichwort CUDA hilft da schlicht nicht weiter...
Böse Zungen könnten auch behaupten, das es sich hier einfach nur um einen Bug handelt? Denk mal drüber nach...

viel interessanter an der Thematik vor allem auch eher, warum das PowerTarget das zulässt? Nicht oder?
Hat auf jedenfalls mehr Informationsgrad als das Trolling, was du hier gerade versuchst... :wink:

THW hat bestimmt nur Mist gemessen und ihren Kühlschrank lief halt nur an der gleichen Dose mit. Was macht man sich nicht alles vor...

Vielleicht machst du mal die Augen auf:
"Sollte sich das ganze wirklich so herrausstellen, das im default Zustand ohne händische Eingriffe, die Karte DAUERHAFT weit über Norm säuft, wie THG gemessen hat, dann ist das freilich definitiv mit Vorsicht zu genießen."

Dennoch ändert es nix an der Tatsache, das die Frage nach dem WARUM nicht geklärt ist. Bei der 295X2 ist die Frage nach dem WARUM nämlich glasklar und für jeden ersichtlich.
Warum GM204 allerdings weit über PT Limits nuckeln soll, obwohl das PT genau dafür da ist, die Karte dort einzubremsen, hingegen nicht...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Messung hat auf jedenfall den faden Beigeschmackt, das es für Keinen nachvollziehbar ist. Die Angaben zur Messung sind einfach nichtssagend und auch das Stichwort CUDA hilft da schlicht nicht weiter...
Böse Zungen könnten auch behaupten, das es sich hier einfach nur um einen Bug handelt? Denk mal drüber nach...

Hier sollte Tomshardware noch nachliefern. Ich denk zwar dass die Ergebnisse wichtig und richtig sind, allerdings sollte man jene auch ordentlich verifizieren.
 
Finde die neuen Karten ja ganz nett, aber wann kommen die Karten für große Jungs?

Meine Titan will auch mal in Rente gehen dürfen :) Und ich hoffe da wird nicht 100% auf Effizienz gesetzt ich will Leistung was juckt mich der Strom (Nein ich wohne nicht bei meinen Eltern LoL). Am liebsten 60% oder mehr (stock vs stock).

Das wäre mal wieder ein Kaufgrund, zumindest für mich.
 
Hier sollte Tomshardware noch nachliefern. Ich denk zwar dass die Ergebnisse wichtig und richtig sind, allerdings sollte man jene auch ordentlich verifizieren.

Ich zweifel nicht an der Richtigkeit der Messung und auch nicht der Werte, nur wenn man durch welche Gründe auch immer genetische Volllast erzeugt, was in der Praxis kaum Relevanz hat, dann macht das imho weniger Sinn.
Vor allem erzeugt es ein verquertes Erscheinungsbild. Sieht man doch 1a an Pickebuh, kein Plan was Cuda überhaupt ist und offenbar unwissend das nicht jede Anwendung gleich hoch belastet, aber schon Panik schieben...

Eventuell greift nur aus welchen Gründen auch immer PT nicht. Oder es geht gar nicht richtig?
Normal muss man bei derartiger Last auch in einer Gesamtsystemmessung diesen Mehrverbrauch sehen... und normal müsste das PT eiskalt decken.

Es ist ziemlich auffällig das scheinbar nur THG derart hohe Verbraucher misst? Oder konnten das mittlerweile andere nachstellen?
Aber mir soll's auch wurscht sein, ich behalt vorerst die TI und warte gespannt auf die HighEnd Ableger... ob das dieses Jahr noch was wird?
 
Zuletzt bearbeitet:
Lesen wir mal, was der THG-Tester "FormatC" dazu auf Computerbase schreibt:

Da ich von den sehr hohen Messwerten unter Extremlast bei der Gigabyte GTX 970 und 980 auch überrascht war, habe ich gestern mit dem Hersteller telefoniert. Die Zahlen bei den Custom-Cards stimmen, denn Gigabyte hat (ganz offiziell) bei der GTX 970 ein Power-Target von 250 Watt und bei der GTX 980 von 300 Watt freigegeben! Die 980 lässt sich sogar noch mal per Hausfrauen-Tool (MSI Arschbrenner) auf 366 Watt anheben - grandios für Übertakter und schlecht für die Steckdose. Die 1,5 GHz von Anand erreichst Du sicher nur als Boost-Takt, Ich konnte bei allen Samples maximal 1.4 GHz Basistakt einstellen, sonst wird es instabil. Die Retail-Karte der 980 ging aber immerhin bis 1375 MHz.

Unsere Referenz GTX 980 hat einen weg, ich musste mir erst mal Ersatz verschaffen. Jetzt stimmen auch die Messwerte für die Referenz wieder, wir haben es gestern schon geupdatet. Jetzt liegt es also am Hersteller, wie viel Power er freigibt. Zotac hat bei der GTX 980 soweit ich weiß auch auf der Omega Version nur 220-250 Watt in der Firmware. Damit dürften die GB wohl der Hardcore-Fall für die Freaks werden, die mit Boost glänzen wollen

Die relativ hohe mögliche Leistungsaufnahme ist also von Boardpartnern ganz offiziell bestätigt, die THG-Messungen stimmen also.
 
Zuletzt bearbeitet:
Das ist im Hinblick auf das Roundup mit Custom-Karten interessant. Da werde ich dann jeden Hersteller anschreiben und nach dem TDP-Limit fragen (zumindest so lange man das nicht via Tool oder im BIOS irgendwie auslesen kann).
 
Das ist im Hinblick auf das Roundup mit Custom-Karten interessant. Da werde ich dann jeden Hersteller anschreiben und nach dem TDP-Limit fragen (zumindest so lange man das nicht via Tool oder im BIOS irgendwie auslesen kann).

Ja, das erhöht den Aufwand für den Tester nochmal.

Ein allgemeingültiges TDP-Limit scheint es ab jetzt ja nicht mehr zu geben.
 
Das ist im Hinblick auf das Roundup mit Custom-Karten interessant. Da werde ich dann jeden Hersteller anschreiben und nach dem TDP-Limit fragen (zumindest so lange man das nicht via Tool oder im BIOS irgendwie auslesen kann).

Hoffe das zumindest einer der beiden Karten es in das Roundup schafft.
Zotac GeForce GTX 970
Inno3D GeForce GTX 970 HerculeZ X2
 
Ja, das erhöht den Aufwand für den Tester nochmal.

Ein allgemeingültiges TDP-Limit scheint es ab jetzt ja nicht mehr zu geben.

Naja, der Aufwand hält sich in Grenzen. Macht benötigt ja nur die Information.

Hoffe das zumindest einer der beiden Karten es in das Roundup schafft.
Zotac GeForce GTX 970
Inno3D GeForce GTX 970 HerculeZ X2

Sollen wir beide bekommen, aber nicht mehr diese Woche.
 
Wieso wird hier eigentlich immer von der 980 abgeraten und stattdessen für High End Spieler zwei 970er Karten empfohlen? Gibt es in den meisten Spielen mit SLI nicht immernoch die üblichen Kinderkrankheiten wie z.B. Microruckler? Ich kann mich z.B. noch bei BF4 erinnern das es lange keinen Patch für SLI Nutzer gab und viele Spieler mit nervigen Mikrorucklern zu kämpfen hatten, bis Dice endlich mal einen Patch rausgerückt hat. Dann ist noch die Frage ob die Next-Gen Ports die in Zukunft erscheinen sowas unterstützen werden.... wenn alle Titel so mies geportet werden wie Dead Rising 3, dann gute Nacht. Dann lieber eine zu teure Single GPU Karte. ^^
 
Kann mir irgendwer etwas zur Gainward GTX970 was sagen?
Empfehlenswert?
Bei mir vorrätig in der Nähe für 324 Euro.
 
Sollen wir beide bekommen, aber nicht mehr diese Woche.

Das macht nichts, es kommt nicht auf 2-3 Wochen an. Muss eh auf das neue SFX-L von Silverstone warten. :-)
Sind halt die einzigen Karten die ohne Modding in den Sugo passen. Zudem hoffe ich, dass dort nichts am
TDP Limit gedreht wurde.
 
Ja, und die GTX 980 GB Windforce OC zieht megasatte 280 Watt aus der Dose.

Das sagt uns:

nVidias TDP-Angabe gilt nur für das Referenzmodell.
 
DON kannst noch was zu DSR und SLI sagen? Hatte das Problem das ich die Option nicht mehr habe sobald SLI aktiviert ist und das auch im EVGA Forum gepostet. Jacob der Moderator hat sich 1 Tage Zeit gelassen und dann geschrieben es würde gehen. Danach hat sich ein User mit 2 GTX 980 gemeldet und auch bestätigt das die Option bei den verfügbaren Treiberversionen nicht mehr vorhanden ist, sobald SLI aktiviert ist - wird SLI ausgeschaltet findet man auch die DSR-Option:

DSR wit SLI GTX 970 or GTX 980? - EVGA Forums

Komisch das auch kein anderer Test der online ist darauf eingegangen ist und hingewiesen hat.

Habe noch einen User im Overclock.net Forum mit 2 GTX 980 angeschrieben ob er das mal prüfen kann, aber da kam noch nichts
 
DON, erstmal danke für den 980 zu 780Ti Vergleich ... bist ein Schatz !!!!!
 
Ja, und die GTX 980 GB Windforce OC zieht megasatte 280 Watt aus der Dose.

Das sagt uns:

nVidias TDP-Angabe gilt nur für das Referenzmodell.

Die zieht 240/280W, weil das PowerTarget bei 250W/300W liegt.
Die Referenzkarte dagegen zieht 177W im TortureTest.

Und wiedermal wurde das virale Marketing von AMD Mitarbeitern entlarvt. :banana:
 
280 Watt sind 280 Watt.

Schon heftig, auf R9 290x-Level im Ubermode.
 
Du checkst es nicht, oder? Ich meine wirklich? Intelligenz und so?!

Die Gigabyte-Karten haben ein Powertarget bei 250W/300W und können hier ungehindert mit vollem Takt laufen.
Die Referenzkarte, die von euch AMD Mitarbeitern ja genommen wurde, bleiben +- beim PowerTarget von 165W.
 
Verbreitest du gerne unwahre Tatsachenbehauptungen? Von wegen "uns AMD Mitarbeitern"?

Das ist sehr charakterschwach von dir!

Im Übrigen: Genau so, wie der Wert der Referenzkarte außer Frage steht,stehen auch die enormen 280 Watt der GB-Karte außer Frage.
 
Kannst du diese Aussage bitte fuer mich noch mal genauer formulieren? Ich stehe mit der Aussage, dass Grafikkarten CPUen ausbremsen bzw. umgekeht stark auf Kriegfuss.

Meine Formulierungen wuerde lauten:
1) Monitore bremsen CPUen aus (wobei das durch Downsampling inzwischen Nebensache wird)
2) Anwendungen sind zu stark CPU lastig als dass die Grafikkarte voll ausgelastet werden koennte (-> Downsampling)
3) Grafikanforderungen sind zu hoch fuer die gewaehlte Grafikeinstellung

Aber evtl hab ich auch einfach nicht verstanden was du sagen wolltest. Ich waere daher fuer eine Erklaerung dankbar, die nicht nur ne halbe Zeile lang ist.

1) Ein Monitor Bremst nur deine CPU und GPU aus wenn du mit Vsync Spielst und dein Monitor nur 60Hz kann, das sind dann 60 FPS. Hier wäre ein 144Hz Monitor ideal.

2) Du hast schon in FullHD CPU Limit mit eine Starken Karte man muss nicht unbedingt SLI/CF haben, es ist Spiel abhängig.
.
Bsp. Du spielt BF4 auf ein 64 Slot Server dein CPU ist überlastet mit Daten und jetzt kommt zusätzlich GPU Daten. Fakto CPU kann gar nicht so schnell Arbeiten wie deine GPU die Daten an deine CPU sendet, dann Bremst deine CPU in dem Fall GPU aus.
Wie kannst du das verhindern das deine CPU Luft hat zum Ardmen und deine GPU´s beschäftigt werden und anfangen zu schwitzen.
Hier muss man mit Downsampling Spielen und die Karten richtig Arbeiten lassen. Du ´Spielst dann auf größere Auflösung FPS bleibt gleich aber deine CPU kann diese Daten schneller berechnen weil SIe Zeit hat zum Rechnen. Weil deine GPU oder GPU´s erstmal selber beschäftigt sind diese mengen von Dateien zu berechnen.

3) dann hast du 99% GPU Auslastung weil sie zu schwach ist für diese Setting und diesmal langweilt sich deine CPU. Bis die Daten von deine GPU kommen, dein Prozessor könnte Kaffee Trinken gehen bisschen übertrieben ;)

Dann gibt es Spiele die sind CPU oder GPU oder RAM abhängig du musst halt für jedes Spiel die Goldene Mitte Treffen.
Zweite Karte Kauft man nicht für FullHD nur wenn man Downsampling betreiben möchte oder SGSAA setting reinhauen möchte und alles was geht.

Teste selber aus: gehe ins Spiel rein stell auf 800x600 in game Setting alles auf low. Eigentlich müsste deine Grafikkarte 100% Auslastung haben weil mit dieser Setting ist das ein Lachnummer für die Karte richtig.
Aber du wirst sehen die GPU Auslastung wird um 50% sein, warum ???

Weil deine CPU kommt nicht nach die Daten zu bearbeiten. Am besten schaltest du MSI Afterburner und klickst auf CPU Auslastung und GPU Auslastung anzeigen hacken setzen.
Je höher die Auflösung um so besser für CPU Natürlich muss auch GPU diese Auflösung Schaffen. Aus dem Grund Schreibe ich immer wieder was eine TI oder eine GTX980 nicht bewältigen kann in diese Auflösung würde dann auch keine zweite Karte was bringen. Je Höher die Auflösung umso mehr braucht GPU, GPU RAM. Da hilft auch keine OC für was den auch wenn GPU RAM überläuft.

Wenn ich Falsch liegen sollte könnt ihr mich ruhig Korrigieren.
 
Zuletzt bearbeitet:
Du checkst es nicht, oder? Ich meine wirklich? Intelligenz und so?!

Die Gigabyte-Karten haben ein Powertarget bei 250W/300W und können hier ungehindert mit vollem Takt laufen.
Die Referenzkarte, die von euch AMD Mitarbeitern ja genommen wurde, bleiben +- beim PowerTarget von 165W.

Könntest du deinen "AMD Mitarbeiter" Mist endlich mal beilegen und den Fakten des Testes fröhnen?
Nur weil die Nvidiakarten offenbar bei Last XY Hawai Verbräuche haben, ist das der Chip in den Haupteinsatzgebieten wie Gaming immernoch spitze.
Nur sind solche Messungen halt interessant, weil es rein um den Chip selber geht.
Wenn du dich da schon wieder persönlich angesprochen fühlst?:hmm:

"nVidias TDP-Angabe gilt nur für das Referenzmodell."

"Die zieht 240/280W, weil das PowerTarget bei 250W/300W liegt.
Die Referenzkarte dagegen zieht 177W im TortureTest.

Und wiedermal wurde das virale Marketing von AMD Mitarbeitern entlarvt. "

Er sagt im Prinzip das gleiche wie du, und trotzdem fällt die Beleidigung bezüglich Intelligenz.
Man kann sich auch selber ein Bein stellen und sich lächerlich machen.

Jedenfalls bin ich auf Tests der Partnermodelle gespannt und vor allem wie dort der Strombedarf aussieht.
Für mich sieht es jedenfalls so aus, als ob die GTX 980 Referenzmodelle lediglich Rosinen sind.
 
Zuletzt bearbeitet:
Mensch Schaffe89 was nimmst den Typen noch ernst. Jetzt ist er bestimmt in CB drinn Schreibt den ganzen Mist dort auch rein. Gehe auf sein Diskussion gar nicht ein.

- - - Updated - - -

Ja, und die GTX 980 GB Windforce OC zieht megasatte 280 Watt aus der Dose.

Das sagt uns:

nVidias TDP-Angabe gilt nur für das Referenzmodell.

Ist das bei AMD auch nicht der Fall ?
 
Ist das bei AMD auch nicht der Fall ?

Da bin ich mir jetzt nicht so sicher, ich meine, irgendwo mal gelesen zu haben, dass es da Unterschiede geben würde. So oder so ändert das aber nichts an der Problematik.

THG hat sich übrigens noch weiter mit der Thematik beschäftigt:

Effizienz-Shootout mit OC: Maxwell (GTX 970) gegen Kepler und Hawaii

Gut: Wir wissen, dass TDP nicht gleich Leistungsaufnahme ist, aber ein Richtwert sollte zumindest auch ein solcher bleiben. Deshalb haben wir Gigabytes Forschungs- und Entwicklungsabteilung kontaktiert und offiziell bestätigt bekommen, was wir bei den Messungen bereits vermutet hatten: Die Werte für das festgesetzte Power-Target liegen deutlich über dem, was beim Launch kommuniziert wurde!
 
Interessante Watt/Fps Ergebnisse.
 
Könntest du deinen "AMD Mitarbeiter" Mist endlich mal beilegen und den Fakten des Testes fröhnen?

Ja, gerne.
Referenz GTX980 liegt bei 177W - also +- bei den 165W.

Nur weil die Nvidiakarten offenbar bei Last XY Hawai Verbräuche haben, ist das der Chip in den Haupteinsatzgebieten wie Gaming immernoch spitze.
Nur sind solche Messungen halt interessant, weil es rein um den Chip selber geht.
Wenn du dich da schon wieder persönlich angesprochen fühlst?:hmm:

ich weiß nicht, ob dies ein Intelligenzproblem ist, aber 177W sind irgendwie deutlich weniger als 310W, oder? :hmm:

Er sagt im Prinzip das gleiche wie du, und trotzdem fällt die Beleidigung bezüglich Intelligenz.
Man kann sich auch selber ein Bein stellen und sich lächerlich machen.

Er schreibt nicht das selbe, sondern behauptet, dass die "hohe" Leistungsaufnahme über der TDP von nVidia gehen kann.
Dies ist falsch. Dies geschieht auch nicht bei den Custom-Karten.

Jedenfalls bin ich auf Tests der Partnermodelle gespannt und vor allem wie dort der Strombedarf aussieht.
Für mich sieht es jedenfalls so aus, als ob die GTX 980 Referenzmodelle lediglich Rosinen sind.

Es gibt genug Tests mit Custom-Karten. Auch mit Gigabyte-Karten.
Bei Computerbase liegt die Karte 60W+, bei Hardware.fr ebenfalls bei 60W über der Referenz GTX980.

Es ist ziemlich offensichtlich, dass entweder bei einigen es nicht ausreicht Sachverhalte richtig zu verstehen und einzuordnen oder sie haben eine entsprechende Agenda.

Schon traurig, was heutzutage in Internetforen für Nonsense geschrieben wird. :(
 
Ich verstehe nicht, warum ihr alle auf die GB980 rumkackt - Wenn ich mir bei CB die Werte anschaue im Vergleich mit 980MAX, dann agiert die GB sogar bei OC sogar sparsamer als die REF., bissl mehr Verbrauch bei einer höheren Leistung :d
 
Anhang anzeigen 295735

Sichere eines der auffälligsten Modelle. Wir müssen allerdings noch auf die finale Freigabe eines neues BIOS warten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh