ASUS GeForce GTX 980 Ti Strix im Test

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.055
<p><img src="/images/stories/galleries/reviews/2015/asus-980ti-strix/asus-gtx980ti-logo.jpg" width="100" height="100" alt="asus gtx980ti logo" style="margin: 10px; float: left;" />Es bricht die Phase an, in der alle namhaften Hersteller nicht nur eine erste Version der GeForce GTX 980 Ti auf den Markt gebracht haben, sondern inzwischen auch ausreichend Zeit und technische Kompetenz für einige komplett eigene Interpretationen aufbringen konnten. Mit insgesamt bereits fünf getesteten Karten lohnt sich aber sicherlich bereits jetzt ein Blick <a href="index.php/artikel/hardware/grafikkarten.html" target="_self">in die Artikel-Sektion bei den Grafikkarten</a>. Mit der ASUS GeForce GTX 980 Ti Strix schauen wir uns heute ein besonders interessantes Modell an, das zumindest auf dem Papier das...<br /><br /><a href="/index.php/artikel/hardware/grafikkarten/36045-asus-geforce-gtx-980-ti-strix-im-test.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hmm anscheinend macht der Kühler doch eine verdammt gute Arbeit. Ich denke mal ich habe endlich meinen Favoriten gefunden :)
 
Schönes Review, habe ich sehnsüchtig drauf gewartet.
Für mich bleiben die unterschiedlichen Ergebnisse in Sachen Lautstärke je nach Websseite allerdings ein absolutes Rätsel. Und ich meine nicht nur die eigentlichen Messwerte, sondern die grobe Einordnung "leise", "geht so", "zu laut".
Da ist, wenn man ein wenig im Netz recherchiert, alles vertreten.
Es bleibt merkwürdig.
 
blöde frage: liegt das an der kamera oder ist die beleuchtete fläche rosa? (impressionen(3))
 
"Bei einem genauen Blick auf die Kontaktfläche der Heatpipes mit der GPU zeigt sich, dass eigentlich nur drei der fünf Heatpipes direkten Kontakt haben."

So ein toller Kühler aber für eine ordentliche Kupferplatte hat es nicht gereicht. Diese Heatpipe-Direct-Touch-Konstruktion ist leider nicht so das Wahre.
 
Das mit den äußeren Heatpipes ist in der Tat nur schwer nachzuvollziehen.
 
Bei der Asus R9 290x wurde der DCUII-Kühler hier oft von Usern aus dem Luxx als ungeeignet erklärt, da auch nur 3 Heatpipes die GPU berühren. Bin mal gespannt wie es bei diesem Kühler wird.
 
Bei der Asus R9 290x wurde der DCUII-Kühler hier oft von Usern aus dem Luxx als ungeeignet erklärt, da auch nur 3 Heatpipes die GPU berühren. Bin mal gespannt wie es bei diesem Kühler wird.

Ist doch schon immer so, egal welche Grafikkarte, dass nicht alle Heatpipes Kontakt zur GPU haben?
 
Wieso fehlt die Gigabyte G1 in den meisten Vergleichstabellen?
Die Karte wurde von euch doch getestet...
 
Ist doch schon immer so, egal welche Grafikkarte, dass nicht alle Heatpipes Kontakt zur GPU haben?

Bei Asus seit geraumer Zeit außer es befindet sich ein extrem großer Chip darunter, anderer Hersteller löten eine Bodenplate dazwischen womit alle Heatpipes mehr oder weniger Wärme ableiten können von den Asus Kühlern halte ich persönlich nichts mehr, der Kühler auf der 290x Matrix war der absolute Hammer unter dem DirectCU Schrott.
Wie man sieht hätte man den Kühler auch mit 3 Heatpipes deutlich kompakter bauen können..
 
Auch wenn die Äußeren Pipes keinen direkten Kontakt haben, nehmen sie doch auch etwas Abwärme auf.
Denke die Temperatur wäre doch eine Ecke höher mit nur 3 Pipes.
 
Da nur der Chip kontakt mit den Heatpipes hat, könnte man ja mal testen ob eine 0,5mm Kupferplatte zwischen Heatpipes und Chip bessere Ergebnisse bringt.
 
Und wann kommt die von mir heiß ersehnte Karte Jzt endlich raus ?

weiß Vlt wer mehr über das Erscheinungs bzw liefertermin ? :)
 
Schönes Review, habe ich sehnsüchtig drauf gewartet.
Für mich bleiben die unterschiedlichen Ergebnisse in Sachen Lautstärke je nach Websseite allerdings ein absolutes Rätsel. Und ich meine nicht nur die eigentlichen Messwerte, sondern die grobe Einordnung "leise", "geht so", "zu laut".
Da ist, wenn man ein wenig im Netz recherchiert, alles vertreten.
Es bleibt merkwürdig.

Die Resultate sind in der Tat extrem unterschiedlich, vor allem die Temperaturmessungen weichen deutlich voneinander ab

ASUS GeForce GTX 980 Ti STRIX Review - Graphics Card Temperatures
 
Super Karte. Nun wann lieferbar? Gelistet ist sie ja, aber nirgends auf Lager..
 
Der Kühler ist leise, aber die Karte auch vergleichweise warm (z.b. zu MSI)
Ich bevorzuge weiterhin zwei große Lüfter als drei kleine!
 
Wow ich bin überrascht! Mehr Leistungsaufnahme als die Asus Fury strix, lauter als die Fury Strix und wärmer als die Fury Strix.

Ansich eine echt schöne Karte, aber meiner Meinung nach einen Tick zu teuer(10-20€), das sollte sich aber in den nächsten wochen legen ;)
 
Die Fury Strix braucht sich aber von der Performance her nicht mit einer 980Ti Strix messen, insofern ist die Leistungsaufnahme nicht verwunderlich.
Wenn Maxwell übertaktet wird geht auch die Effizienz flöten.
Wäre interessant wie Fury oder Fury X bei der starken Übertaktung reagieren würde.
 
Die Fury Strix braucht sich aber von der Performance her nicht mit einer 980Ti Strix messen, insofern ist die Leistungsaufnahme nicht verwunderlich.
Wenn Maxwell übertaktet wird geht auch die Effizienz flöten.
Wäre interessant wie Fury oder Fury X bei der starken Übertaktung reagieren würde.
Bisher war es ja immer andersherum, insofern bin ich halt überrascht^^
 
ich finde gerade die verbrauchsmessung so lächerlich...immer aus ganze system bezogen. das kann THG so viel besser.
die karte wird 12% oc und das GESAMTSYSTEM zieht mal eben 12% mehr strom....

das ist doch irreführend
 
Vielen Dank für den Test! Macht ihr die Lautstärke und Temperaturmessungen eigentlich in einem offenen Aufbau oder im geschlossenen Gehäuse? Und wenn, in welchem? :)
 
ich finde gerade die verbrauchsmessung so lächerlich...immer aus ganze system bezogen. das kann THG so viel besser.
die karte wird 12% oc und das GESAMTSYSTEM zieht mal eben 12% mehr strom....

das ist doch irreführend
Liegt vllt dran, dass die Grafikkarte den größten Teil des Stroms verbraucht, für 12% OC mehr als 12% mehr Strom braucht, ebenfalls durch höhere Temperatur und durch ein erhöhtes GraKa-Limit die CPU mehr leisten muss und ebenfalls mehr verbraucht?
 
ich finde gerade die verbrauchsmessung so lächerlich...immer aus ganze system bezogen. das kann THG so viel besser.
die karte wird 12% oc und das GESAMTSYSTEM zieht mal eben 12% mehr strom....

das ist doch irreführend

In wie fern ?
Was ist für dich relevant ? Der Verbrauch der Grafikkarte oder eher was dein System insgesamt verbraucht ??
Zudem ist das Testsystem immer das Selbe. Daher kann man schon sehen, welche Auswirkungen Grafikkarte A und Grafikkarte B haben.
 
12% oc sind 80watt mehr verbrauch der grafikkarte...jetzt müsste man noch wissen was die grafikkarte ohne oc überhaupt verbraucht aber das sind zwischen 20-30% mehr verbrauch.
in den tests hier macht man aber den fehler und denkt sich, hey 12% oc, 12% mehr verbrauch, skaliert ja super. dabei ists eben viel mehr als 12% verbrauch. wenn man sich jetzt die rechtschreibung und argumentation in den meisten threads hier durchsieht und dadurch auf den intellekt des durchschnittlichen hwluxx lesers schließt ist der großteil hier doch nicht in der lage zu differenzieren zw 12% oc und 12% gesamtsystemverbrauch.

auf THG wird der tatsächliche verbrauch der grafikkarte gemessen und die werte unterscheiden sich oft sehr von den werten hier. auch wenn es immer das selbe system bei hwluxx ist, man weiß trotzdem nicht was das system ohne gpu überhaupt verbraucht und das bei den ewigen verbrauchsdiskussionen.

es geht hier doch immer mehr darum wie effizient eine karte ist, was ich so rauslese ist das ja immer der hauptgrund gegen amd, da beide ja meist auf dem selben level liegen.

dazu muss man ja sehen dass die OC werte hier nichtmal mit erhöhter vgpu sind... wenn man sich dann ansieht, dass es immer heist: "kauf keine amd die verbrauchen soviel" und man dann ne gtx970 kauft und die per vcore so tritt dass sie mehr verbraucht als eine 290x dann macht das doch alles keinen sinn?!
 
Zuletzt bearbeitet:
Die Karte ist vom Werk her schon ordentlich übertaktet und komischerweise sehe ich im Test auch die Absolutwerte, also 460W Gesamtsystem mit Werks-OC und dann ~515W mit Custom-OC maxed-out.
Und natürlich sind die maxed-out Werte mit Spannungsanhebung, vielleicht solltest Du nicht nur die Grafiken ansehen, sondern auch den Text lesen, steht doch deutlich dabei dass die Spannung um 87mV angehoben wurde.

Was eine GTX980TI braucht komplett ohne OC im Referenzdesign, siehst du bei dem initialen Test der GTX980Ti, ich helfe dir mal, es waren 373W Gesamtsystem.
Wie ich oben schon geschrieben habe, wenn Maxwell übertaktet wird geht auch die Effizienz flöten.
Aber Maxwell lässt sich halt böse übertakten und wer das möchte kann es eben machen.
 
Zuletzt bearbeitet:
87mV sind aber auch nur in dem standart bios das limit oder? mit einem ordentlichen custom bios sollte doch etwas mehr als 87mv drin sein...da kann ich ja bei meiner 980m höhere spannung zugeben...
(an der stelle mal die frage, was ist derzeit die "beste" 980ti zum OC, sprich ohne diesen power target, temp target und boost müll?
und was verbraucht die karte ohne oc? ich sags dir, man kann es bei hwluxx einfach nicht rausfinden
sehe ich es aber richtig dass die karte mit oc dann schon 142watt mehr als die referenzkarte zieht?

ich muss wohl auch irgendwo überlesen haben was die definition von"last" ist
wie THG schon gezeigt hat ist maxwell auch nur effizient wenn die leistung der karte nicht durchgehend gefordert wird, wenn man z.b. auf HD mit 60fps spielt
spielt man aber in 2560 oder 4k und die karte hat durchgehend 100% auslastung zieht maxwell nicht wenig strom aus der steckdose und liegt ohne weiteres auf höhe von amd wenn nicht drüber

so sieht z.b. eine ordentliche messung des verbrauchs aus:
Ergebnisse: Leistungsaufnahme - Nvidia GeForce GTX 980 Ti (6GB) im Test: GM200 für Gamer

wenn man also eine übertaktete 980ti im sli für 4k benutzt darf man wohl davon ausgehen dass die etwa 500-1000w ziehen, eher so um die 700 watt, da die grafikkarten durchgehen im maximum laufen werden...
da ist eine 295x2 auf einmal n stromsparer

http://www.tomshardware.de/fury-x-l...ienz-benchmark-pumpe,testberichte-241853.html
hier ist auch das fazi besonders interessant und bezihet sich auf das was ich oben unter definition von last geschrieben habe
 
Zuletzt bearbeitet:
Ach, jetzt begreife ich worum es dir geht.
Es geht wieder einmal um eine angebliche miese Hetze gegen AMD.
OK, alles klar, dann kann ich mir ja jegliche Argumente sparen.

Du hast natürlich Recht, eine 295x2 braucht weniger Strom als ein 980Ti OC SLI-Gespann, blöderweise hat das auch nie jemand bestritten weil jedem klar ist dass Maxwell zwar starkes OC-Potential hat, aber dann Strom frisst.
 
Zuletzt bearbeitet:
ne darum gehts mir eigentlich nicht, sondern um die nennen wir es rudimentäre verbrauchsmessung als grundlage für all die effizienz diskussion.
die nvidia karten sind ja, wenn man powertarge usw. auf max stellt und üvertaktet usw. zugegebenermaßen schneller als die amd karten, verbrauchen dann aber auch sehr viel strom. das sollte einfach mal festgestellt werden um diesen ewig diskussionen über den stromverbrauch einen riegel vorzuschieben.

momentan läuft es halt so, die leute sehen zweifelhafte und fehlerbehaftete annäherungsmessungen des stromverbrauchs der referenzkarten sehen und diskutieren dann über alle karten von amd sowie nvidia.
 
https://m.facebook.com/story.php?story_fbid=759208494225391&id=346079665538278&ref=fbwaexpcopy
Ich habe der Karte mal die Sporen gegeben
 
https://m.facebook.com/story.php?story_fbid=759208494225391&id=346079665538278&ref=fbwaexpcopy
Ich habe der Karte mal die Sporen gegeben

Habe kein Facebook. Was war denn der maximale Takt den du rausholen konntest? Und hattest du ein Custom Rom?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh