AMD Radeon R9 290X im Test

Aufgrund des Stromverbrauches wird ein Cougar A 450W wohl nicht genügen, oder ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja, den Verbrauch mit 2 Monitoren finde ich auch heftig. Bis vor gar nicht allzu langer Zeit war das ja auch mit den NVidia-Karten so.

Eine Alternative ist, den zweiten Monitor über die GPU im Prozessor zu betreiben.
Vorteile:
- Keine Probleme, wenn der Hauptmonitor mit 120/144 Hz läuft, der zweite Monitor mit 60 Hz
- Beim Zocken muss die Grafikkarte nicht auch das Bild für den zweiten Monitor erzeugen
- Idle-Verbrauch für 1 Monitor
Nachteile:
- 2 Treiber
- Man kann nur die Desktoperweiterungsfunktionen von Windows verwenden

Wird nur zum Problem, wenn man keine iGPU hat (FX-Besitzer oder hier schreibt jemand mit einem Xeon :d ). das mit den zwei Treibern fände ich übrigens nicht als Nachteil, habe ich zeitweilig gemacht, das händelt Windows ganz entspannt.

- - - Updated - - -

Aufgrund des Stromverbrauches wird ein Cougar A 450W wohl nicht genügen, oder ?

Die testen hier mit einem übertakteten i7 3960x und kommen auf 420w in der Spitze, da solltest du mit deinem System aus der Sys-info Eigentlich drunter kommen. ;)
 
wie box schon sagte, es macht halt mit Boost v2 und auch dem neuen Powertune von AMD wenig Sinn, nur einen Wert zu berücksichtigen...
idle schaut das aber irgendwie anders aus... Denn idle ist idle, da gibts keine Lastspitzen ;)

Was die Taktraten angeht im ht4u.net Test -> die stehen im Text weiter vorn.
Im Quietmode irgendwo nach ein paar Minuten unter 900MHz schwankend, teils runter bis unter 800... Im Performancemode quasi immer 1000MHz. (bis auf wenige Ausnahmen)
Was halt bei den meisten noch nicht angekommen ist, Powertune arbeitet anders als Boost v2.
 
Wird nur zum Problem, wenn man keine iGPU hat
Das ist natürlich die Voraussetzung. ;)
Alternativ würde es eine kleine passiv gekühlte Karte, die unter 10 Watt verbraucht, auch tun.

oder hier schreibt jemand mit einem Xeon :d
Der 4770K liegt schon hier. Den Xeon nimmt mein Bruder. Der hat nur einen Monitor und braucht auch keinen zweiten.

das mit den zwei Treibern fände ich übrigens nicht als Nachteil, habe ich zeitweilig gemacht, das händelt Windows ganz entspannt.
Ja, Windows mach das mittlerweile gut. Der "Nachteil" besteht halt darin, dass man wieder eine Applikation mehr hat, die man aktualisieren muss. Allerdings sollte für die GPU des Prozessors auch jederzeit der von Windows mitgelieferte Treiber ausreichen. ;)

--- Nachtrag ---

@Intercore
Die testen hier mit einem übertakteten i7 3960x und kommen auf 420w in der Spitze, da solltest du mit deinem System aus der Sys-info Eigentlich drunter kommen. ;)
Dein Netzteil wird dann auch schön ausgelastet sein -> bessere Effizienz
 
Zuletzt bearbeitet:
@Schwinni
dann installier halt die Treiber ohne Application. Für simple Bildausgabe braucht doch sowieso keiner den ganzen Zusatzkram ;)

Problematisch wird es mit den Treibern erst, wenn du zwei Karten vom gleichen Hersteller nutzt und es keine Treiber gibt die beide GPUs unterstützen.
Beispielsweise ist es fast unmöglich ne Quadro und ne Geforce zusammen mit Windows 7 gleichzeitig zu nutzen. Da sich die Treiberfiles gegenseitig überschreiben...
Oder auch hier bei nagelneuen Karten kommt es hin und wieder vor, das die neueste Version nur von dem Treiber supportet wird, der dann teils die alten Karten nicht kennt.
 
Der 4770K liegt schon hier. Den Xeon nimmt mein Bruder. Der hat nur einen Monitor und braucht auch keinen zweiten.

Ich meinte auch mich mit dem Xeon. ;)

Ja, Windows mach das mittlerweile gut. Der "Nachteil" besteht halt darin, dass man wieder eine Applikation mehr hat, die man aktualisieren muss. Allerdings sollte für die GPU des Prozessors auch jederzeit der von Windows mitgelieferte Treiber ausreichen. ;)

So sieht es aus, das dürfte einfach durch tuckern. :d Intels GPU-Treiber sind ja ej nur solide, da lohnt sich das update meist nicht, wenn keien akuten Fehler vorliegen. ;)
 
@Schwinni
dann installier halt die Treiber ohne Application. Für simple Bildausgabe braucht doch sowieso keiner den ganzen Zusatzkram ;)
Wie ich geschrieben habe: "Allerdings sollte für die GPU des Prozessors auch jederzeit der von Windows mitgelieferte Treiber ausreichen." ;)
 
wie box schon sagte, es macht halt mit Boost v2 und auch dem neuen Powertune von AMD wenig Sinn, nur einen Wert zu berücksichtigen...
idle schaut das aber irgendwie anders aus... Denn idle ist idle, da gibts keine Lastspitzen ;)

Was die Taktraten angeht im ht4u.net Test -> die stehen im Text weiter vorn.
Im Quietmode irgendwo nach ein paar Minuten unter 900MHz schwankend, teils runter bis unter 800... Im Performancemode quasi immer 1000MHz. (bis auf wenige Ausnahmen)
Was halt bei den meisten noch nicht angekommen ist, Powertune arbeitet anders als Boost v2.
Doch ist sehr wohl angekommen dass sie unterschiedlich arbeiten! Nur siehst du den Unterschied - fast immer auf 1000mhz im uber mode - die Titan maxed out kann aber ihre 1000mhz in der Regel nicht halten - und das wird nicht aufgezählt bzw. hab ich nichts zu gefunden zu, da mit erhöhtem PT einfach nur die 265Watt drin sind (ergo throtteln unter Vollast - geht nur mit mod bios zu beheben, aber dann haben wir fast den selben verbrauch;)
 
Und ich habe extra geschrieben fast den selben Verbrauch (20-30 Watt differenz) - da die Titan trotzdem sparsamer ist - da einfach weniger Lastspannung anliegt;)
 
Wird nur zum Problem, wenn man keine iGPU hat (FX-Besitzer oder hier schreibt jemand mit einem Xeon :d ). das mit den zwei Treibern fände ich übrigens nicht als Nachteil, habe ich zeitweilig gemacht, das händelt Windows ganz entspannt.

- - - Updated - - -



Die testen hier mit einem übertakteten i7 3960x und kommen auf 420w in der Spitze, da solltest du mit deinem System aus der Sys-info Eigentlich drunter kommen. ;)

Mit meinem 4,5 GHz 2500K komme ich ebenfalls auf etwa 420 W Spitze.
 
Ganz Ehrlich Mädels ich würde eher auf die 20nm warten die 290 ist einfach zu heiß und wenn ich euer Probleme Lese finde ich die Karte nicht mehr so schön.
Momentan ist für mich beste GPU P/L und was an OC angeht + Temps die GTX780.

Wartet halt ab NV wird den Preis von der GTX780 senken dann könnt ihr euch eine GTX780 holen, aber das ist euer Entscheidung.
Ich werde dann SLI machen, dann auf die neue Karten warten mit 20nm alles andere macht kein Sinn mehr.

Eine GTX780 bekommt ihr auch für 538€ 3072MB ZOTAC GeForce GTX 780 AMP! Edition Aktiv PCIe 3.0 x16
 
Zuletzt bearbeitet:
Mit meinem 4,5 GHz 2500K komme ich ebenfalls auf etwa 420 W Spitze.

Seine Kiste läuft bei 4 Ghz und er befeuert eine GTX680 mit 1,2 Ghz, wenn das Netzteil da langt sollte es auch eine 290x befeuern können. Bei OC könnte es allerdings Eng werden.

Ich werde dann SLI machen dann auf die neue Karten warten mit 20nm alles andere macht kein Sinn mehr.

Das hätte ich dir auch gefühlte 20 GPUs vorher sagen können. :d
 
Doch ist sehr wohl angekommen dass sie unterschiedlich arbeiten! Nur siehst du den Unterschied - fast immer auf 1000mhz im uber mode - die Titan maxed out kann aber ihre 1000mhz in der Regel nicht halten - und das wird nicht aufgezählt bzw. hab ich nichts zu gefunden zu, da mit erhöhtem PT einfach nur die 265Watt drin sind (ergo throtteln unter Vollast - geht nur mit mod bios zu beheben, aber dann haben wir fast den selben verbrauch;)

Muss Titan doch auch nicht...
NV gibt nen Basistakt und nen Boosttakt an... Alles was drüber geht, ist quasi Vorteil... Heist aber nicht das es garantiert ist.
AMD gibt keinen Basistakt mehr an und auch keinen wirklichen Boost? wenn ich das richtig sehe...
Sondern nur zwei Modi, die nach vordefinierten (aber veränderbaren) Einstellungen die Karte einregeln.

PS: was meinst du mit, das wird nicht aufgezählt? Falls das auf die Angaben zur Titan im 290X Review bei ht4u.net bezogen ist -> schau doch ins Titan Review, da sollten sich die Werte finden lassen.
 
Ob 780, Ti oder Titan, die geben sich alles nichts was die Performance angeht, bei der 290 oder 290x genauso.
Eine neue Grafikkarte macht immer nur sinn wenn man +50% mehr Leistung bekommt.
Wenn man kein DS, SSAA oder 2560er Auflösung nutzt, dann reicht auch eine 200-250 € Karte.
 
Zuletzt bearbeitet:
Meine Karte bewegt sich auf dem Desktop nichtmal mit dem v6 Beta auf den 2D takt... Echt ein wenig nervig, was mir auch aufgefallen ist, die switch to desktop aus games dauert ewig und wenn die Karte im Zero Power Core war, braucht sie auch ewig bis der Monitor wieder an ist.

Witzig, laut CCC ist die Karte auch immer bei 100% Auslastung, speicher taktet allerdings auf 150MHz...


edit: direkt nach dem hochfahren sieht alles gut aus, auch mit 2Monitoren bleibt sie kurz auf 300MHz und 0% Auslastung laut CCC, nach 30Sekunden geht sie dann auf 100% Auslastung laut CCC und 1030MHz... GPU-Z sagt die ganze Zeit 0% Auslastung. Wenn dieses Phänomen sonst keiner hat muss ich wohl nochmal neu aufsetzen.

edit2:

Konnte schon jemand seinen BF4 Code einlösen...
 
Zuletzt bearbeitet:
Muss Titan doch auch nicht...
NV gibt nen Basistakt und nen Boosttakt an... Alles was drüber geht, ist quasi Vorteil... Heist aber nicht das es garantiert ist.
AMD gibt keinen Basistakt mehr an und auch keinen wirklichen Boost? wenn ich das richtig sehe...
Sondern nur zwei Modi, die nach vordefinierten (aber veränderbaren) Einstellungen die Karte einregeln.

PS: was meinst du mit, das wird nicht aufgezählt? Falls das auf die Angaben zur Titan im 290X Review bei ht4u.net bezogen ist -> schau doch ins Titan Review, da sollten sich die Werte finden lassen.
Was den Boost der 290 angeht der ist fix max 1000!
 
Was den Boost der 290 angeht der ist fix max 1000!

Zitat Luxxartikel: "Die Radeon R9 290X hat ein ähnliches Problem, wie viele Karten aus dem Hause NVIDIA in ihrer Referenzversion: Sie werden zu warum und reduzieren ihren GPU-Takt. Mit Systemstart arbeitet die Radeon R9 290X mit einem Takt von 1.030 MHz, reduziert diesen aber recht schnell auf 1.000 MHz." :wink:
 
Mit meinem 4,5 GHz 2500K komme ich ebenfalls auf etwa 420 W Spitze.

Hehe, 420W schaffe ich ja nicht mal mit meiner 7990. Dank 1V @ 925 MHz und einem sparsamen i5 3570T (405 W max.!).

Kann man bei der R9 auch an der Spannung drehen? Vielleicht könnte das jemand ausprobieren (Afterburner 3.0.0 beta 14).
 
Ich habe das mit meiner GTX770 gerade einmal getestet, weil es mich einfach interessiert hat.
Lasse ich den 2. Monitor über die iGPU laufen, dann habe stehe ich sogar besser da, als wenn ich beide Monitore an die GPU hänge. Hätte ich nicht gedacht.
Ich messe den Stromverbrauch an meinem Rechner mit einem hochwertigen Multimeter also aufs mA genau.

Mit iGPU
- Egal ob 1 Monitor läuft oder 2 laufen, es gibt keinen Unterschied im Verbrauch.
- Läuft nur der Hauptmonitor (GPU) dann geht die iGPU schlafen. Das nennt sich bei mir im Asus Bios Render Standby, was für die iGPU aktiviert sein muss.
- Mache ich auf beiden Monitoren etwas, dann ist der Verbrauch mit Monitor 2 und iGPU geringer.
- Spiele ich auf dem Hauptmonitor und der 2. Monitor zeigt z.B. einen Film, dann ist das mit iGPU sparsamer im Strom.

Bei der GTX770 funktioniert es aber auch mit dem herunter takten bei 2 Monitore richtig. Ich denke neue Treiber werden das auch bei der 290X lösen, weil bei den 7XXX hat das ja schon funktioniert.
Die Verzögerung beim aufwachen aus der Zero Core hatte ich bei der HD7770 auch. War aber minimal und dafür spart man ja auch Strom.
 
Zitat Luxxartikel: "Die Radeon R9 290X hat ein ähnliches Problem, wie viele Karten aus dem Hause NVIDIA in ihrer Referenzversion: Sie werden zu warum und reduzieren ihren GPU-Takt. Mit Systemstart arbeitet die Radeon R9 290X mit einem Takt von 1.030 MHz, reduziert diesen aber recht schnell auf 1.000 MHz." :wink:

Das ist Schwachsinn - die Powercolor bzw. die vtx3d arbeitet mit 1030 du "Nase" http://preisvergleich.hardwareluxx.de/powercolor-radeon-r9-290x-battlefield-4-edition-axr9-290x-4gbd5-mdhg-oc-a1021720.html;) Und um der Diskussion jetzt endgültig ein Ende zu setzen: Die R9 290x ist genau hier schneller als die Titan http://www.hardwareluxx.de/images/stories/galleries/reviews/2013/amd-hawaii/290x/bench/3dmark2.jpg - was meinst du wohl warum? Weil die Titan ein eng geschnürtes PT hat und z.b. genau hier ins pt läuft (Volllast eben!)- ergo keine Leistung mehr abrufen kann - ist ja schon am Limit! Die r9 290x dagegen rennt weiter mit hohen Takt - schluckt dafür aber auch mehr weil ihr pt höher ist wenn man das so sagen kann!
 
Zuletzt bearbeitet:
??
Zum ersten, ich hab den Test doch nicht gemacht... Und wenn mich nicht alles täuscht, hat die Luxx Redaktion eine Ref. Karte wie jeder andere auch? Steht nix von Powercolor bzw. VTX3D. :wink:
Was daran schwachsinn ist, musst du mir mal erklären... Wenn das Tool 1030MHz anzeigt, zeigt es 1030MHz an. Ich kann da bei weitem nix für sondern habe nur auf den Umstand hingewiesen, das eben der Boost scheinbar variabel zu sein scheint. Also kein fixes Maxiumum -> obwohl in den Games scheinbar nur 1000MHz anliegt im Ubermode...


Und zum anderen, was interessiert der Umstand? Worauf willst du hinaus?

PS: die Titan Werte aus dem Luxxtest scheinen übrigens deutlich zu hoch. Schau dir andere Benches an... Stichprobenartig fällt mir zumindest auf, das der Abstand von Titan zu 770/HD7970GHz größer ist, als in anderen Messungen, wärend letztere sich genau dort einordnen, wo sie sollen. Geht man nun davon aus, das die Werte der 290X stimmen, scheint das Ergebnis also leicht komisch.
Aber das nur am Rande...
 
Hehe, 420W schaffe ich ja nicht mal mit meiner 7990. Dank 1V @ 925 MHz und einem sparsamen i5 3570T (405 W max.!).

Kann man bei der R9 auch an der Spannung drehen? Vielleicht könnte das jemand ausprobieren (Afterburner 3.0.0 beta 14).

Kann man. Nur ist es ein bisschen anders.. Du stellst zwar 1,250 V ein, heraus kommt aber eine schwankende Spannung um 960 mV. Ich weiss nicht ob es ein Auslesefehler ist. Definitiv geht es mit der Spannungsänderung, denn wenn ich den Wert stark reduziere sehe ich schwarze Blöcke im GPU BurnIn (MSI Kombustor DX11).

Auch mit 100% Fan Speed krieg ich nicht viel mehr raus. Pt auf 120% gestellt musste ich für 100 MHz schon in den Bereich 1330 mV, damit ich keine schwarzen Blöcke sehe. Temperatur 94°C.
 
Zuletzt bearbeitet:
Naja ich kann dir nur aus Erfahrung sagen, dass der 3dmark 11er performance so ziemlich das am meisten last ausübendste Bench Programm ist. Die Titanen und 780er die ich hier hatte gehen da in einigen regionen des Tests einfach auf standard takt zurück weils pt nicht langt;).. Zu den 1030 mhz gpu takt - man sollte eben nicht alles für bare münze nehmen in einem test! Es gibt 2 varianten der referenz modelle mit nem boarpartner eigenen bios wohl. vtxd und powecolor - statt 1000mhz eben 1030...
Was den Umstand angeht, der interessiert sehr wohl - weil immer wieder bezüglich des Verbrauchs Halbwahrheiten gepostet werden. Titan hat einfach ein beschnittenes PT das max 265Watt ziehen kann wenn ich den Regler nach rechts schiebe. Die R9 hat das nicht - was eigentlich als gut anzusehen ist, wenn man sich die threads hier im forum und an die launch zeit der titan/780er zurückensinnt wie enttäuscht anfangs die user waren dass ihr kärtchen nicht großartig boostete unter last. Die Essenz daraus war das mod bios, dass auf geschätzt 50% der Titanen und 780er ihren Einsatz findet. Endlich konnte die Leistung abgerufen werden. Nur der Verbrauch stieg dadurch natürlich mit. Bei der R9 kann man sich bis bestimmte Regionen wohl das MOD bios erst mal komplett sparen, da AMD ein sehr freizügiges PT (ich glaube +50%) und ein "Ubermodus" dem User zur Verfügung stellt. Nur ist jetzt das Gejammer groß, dass zu viel Strom verbraucht wird;).
 
Zuletzt bearbeitet:
Das ist Schwachsinn - die Powercolor bzw. die vtx3d arbeitet mit 1030 du "Nase"

haudi bisschen respektvoller mit Mods Reden wir sind hier nicht im Zirkus. Möchte dich nur daran Erinnern das fdsonne ein Mod ist und keine Nase ;)
 
Zuletzt bearbeitet:
Steht doch in Anführungszeichen;).. und ist in Bayern, der Staat dem du ja auch angehörst eher so aufzufassen dass jemand was geschrieben hat bezüglich der 1030mhz oder des anscheinend nicht festgelegten boostes was nicht stimmt..
 
Bei dem neusten Beta ist ja nun die Raptr Software standardmäßig mit bei...

LOL, was soll das AMD Gaming Evolved Control Center bitte sein? Geforce Experience für Arme? Sowas hätten die echt nicht mit "powered by Raptr" lösen sollen.
 
Steht doch in Anführungszeichen;).. und ist in Bayern, der Staat dem du ja auch angehörst eher so aufzufassen dass jemand was geschrieben hat bezüglich der 1030mhz oder des anscheinend nicht festgelegten boostes was nicht stimmt..

Ich hab das schon nicht verkehrt aufgefasst :wink:
Die "Nase" gibts in Sachsen nämlich auch :fresse:
 
Hab ich ehrlich gesagt auch nicht vermutet:). Aber wollte es dem "Quotentürken";) erklären..der das jetzt hoffentlich nicht falsch versteht:)
@sharif: ist nur Spaß;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh