PowerColor Devil 13 Dual Core R9 290X im Test

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.143
<p><img src="/images/stories/galleries/reviews/2015/powercolor-290x2-devil13/powercolor-290xdevil13-logo.jpg" width="100" height="100" alt="powercolor 290xdevil13 logo" style="margin: 10px; float: left;" />Sowohl für AMD wie auch NVIDIA sind die Dual-GPU-Grafikkarten reine Prestige-Objekte, deren Entwicklungsaufwand und Preis letztendlich meist in keinem Verhältnis zur gebotenen Leistung stehen. Die Radeon R9 295X2 (Hardwareluxx-Artikel) mit fest verbauter Wasserkühlung ist derzeit AMDs Flaggschiff. An eine Alternative dazu hat sich nicht jeder Hersteller herangewagt. ASUS und PowerColor sind die einzigen beiden Hersteller, die eine rein luftgekühlte bzw. wassergekühlte Alternative anbieten. Mit der PowerColor Devil 13 Dual Core R9 290X schauen wir uns eines dieser Modelle an und...<br /><br /><a href="/index.php/artikel/hardware/grafikkarten/34103-powercolor-devil13-hd7990-im-test.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
passen auf die Kühlblöcke auch 2 120mm Lüfter? Damit dürften die Temperaturen sicher noch mal etwas besser und die Karte insgesamt, je nach verwendetem Lüfter, leiser werden.
 
Für mich ist das ein fail.
Zu laut, stromfressend, Mikroruckler ...Bäh
Da doch lieber ein 980er SLI und einen GSync-Moni.
 
"Insgesamt stellt dieser 48 PCI-Express-Lanes zur Verfügung der 3. Generation zur Verfügung." Seite 4

Ich hoffe, dass bald der Nachfolger der 290X kommt. Dann würde es mal wieder etwas spannender werden ;)
 
Verdammt ! Wurde aber auch Zeit...

AMDs Enthusiasten-Devil-Karte im Test zu sehe ist wirklich positiv, da man ja auf NVIDIAs superhyper GTX Titan-Z-Karte immer noch keinen Test findet.
Wie laut würde diese im Vergleich wohl werden ? Wie viel Strom würde sie schlucken ? Das bleibt immer noch ein Rätsel, was wohl ein Geheimnis bleibt oder besser bleiben sollte.

Für 800 Euro bekommt man also "die" schnellste luftgekühlte Einzelkarte am Markt mit echten 2x4GB Speicheranbindung. NVIDIA wo bist du mit deiner Karte ?

Allerdings ist die R9 295X2 in Ref. einfach das bessere Gesamtpaket, für die es auch noch einen kompletten Full-Cover-Wasserkühler gibt, wer unbedingt einen haben möchte.

Aus eine R9 385X2 könnte man schon etwas schönes machen. Ob es Nvidia dann endlich einmal wagt ein Testsample für die Gegenkarte der Presse zur Verfügung zu stellen ? Abwarten...
 
Zuletzt bearbeitet:
@ einen GSync Monitor zu kaufen ist fail, wenn schon dann Adaptive Sync.
 
Quatsch, GSync ist gut. Und Adaptive Sync läuft wird nicht von NV unterstützt.
Vergleichen wenn überhaupt dann mit einem SLI Gespann.
Kaum teurer, schneller, kühler, weniger Stromverbrauch. Bleibt als einziges Argument der Platz.
Was ich gut findet dass es !!keinen!! Technikaward gab.
 
AMDs Enthusiasten-Devil-Karte im Test zu sehe ist wirklich positiv, da man ja auf NVIDIAs superhyper GTX Titan-Z-Karte immer noch keinen Test findet.

Von Don !!!!
PowerColor wollte und will die Karte eigentlich nicht als Sample an die deutsche Presse schicken, in diesem Fall haben wir einen anderen Weg gefunden. Was die Titan Z angeht wollte NVIDIA auch keine Samples verteilen. Wir waren dahingehend mit einigen Shops im Gesprächen, daraus wurde aber leider auch nichts. Die ARES III von ASUS hätten wir auch haben können, nur leider war ich die Woche in der ein Test möglich gewesen wäre nicht zu Hause, so dass wir auch die leider haben ausfallen lassen. Man hat aber auch gemerkt, dass AMD mit der R9 295X2 den Herstellern das Wasser etwas abgegraben hat und das Interesse an den eigenen Lösungen damit geringer wurde.

- - - Updated - - -

Man hat aber auch gemerkt, dass AMD mit der R9 295X2 den Herstellern das Wasser etwas abgegraben hat und das Interesse an den eigenen Lösungen damit geringer wurde.

Ja, die GTX Titan Z hätte sicherlich noch eigene Boarddesigns bekommen können mit Wasserkühler ect.. Aber für welchen Preis dann ? 4000 Euro ??
Damals hat es die R9 295X2 für 1499 Gegeben mit fallender Tendenz, welche schneller war als die GTX Titan Z.
 
Zuletzt bearbeitet:
Mich würde mal interessieren, warum nicht die letzten Treiber (AMD 14.12 und NVIDIA 347.09 bzw. 347.25) für den Test genutzt wurden.
Gerade wenn Grafikkartengenerationen schon fast 1 1/2 Jahre auf dem Markt sind, ist für mich die spannendste Frage, was der Hersteller noch per Treiber herausholen konnte.
Bei diesem Test sind es insbesondere die Frame-Pacing-Verbesserungen des AMD 14.12er Treibers, die vier der acht getesteten Spiele betroffen hätten.
 
Kann es sein, das bei 4k + Filter der Karte der VRAM aus geht? Weil 4k ohne Filtern ist sie meist mit ganz vorne, bei manchen Spielen (zB Metro), fällt allerdings bei Zuschalten der Filter etwas ab.
 
Weil 4k ohne Filtern ist sie meist mit ganz vorne, bei manchen Spielen (zB Metro), fällt allerdings bei Zuschalten der Filter etwas ab.

Liegt an der Engine von Metro. Die läuft auf AMD nicht ganz so gut, deshalb der Einbruch bei Zuschalten von Filtern.

- - - Updated - - -

Quatsch, GSync ist gut. Und Adaptive Sync läuft wird nicht von NV unterstützt.

Gibt da schon ein Video im Netz dazu:

:)
 
Zuletzt bearbeitet:
Verdammt ! Wurde aber auch Zeit...

AMDs Enthusiasten-Devil-Karte im Test zu sehe ist wirklich positiv, da man ja auf NVIDIAs superhyper GTX Titan-Z-Karte immer noch keinen Test findet.


The NVIDIA GeForce GTX TITAN Z Review | PC Perspective
NVIDIA GeForce GTX Titan Z Review and 4K Benchmarks | Digital Storm Unlocked
Nvidia GeForce GTX Titan-Z SLI review incl. Tones TIZAir system | Hardware.Info United States
AnandTech | NVIDIA Releases GeForce GTX Titan Z
GeForce GTX Titan Z Overclocking Testing | PC Perspective
Nvidia GeForce GTX Titan-Z review - Introduction

zur "AMDs Enthusiasten-Devil-Karte" selbst:

viel zu laut und zu warm
da ist AMDs Referenzbrett besser
 
Zuletzt bearbeitet:

Wir reden hier über seriöse Tests und nicht über NVIDIA-Verkaufsplattformen aus den USA.
Damit kann man hier nichts anfangen.

Übrigens, Naennon. Du hast doch eine GTX Titan Z oder ? Kannst sie ja mal zu Testzwecken an Hardwerluxx schicken. Wäre doch mal interessant ob deine Investition Sinn gemacht hat. ;)
 
Zuletzt bearbeitet:
Beeindruckende Karte...
ist die Slotblende vom Gewicht oder der enormen Abwärme verbogen?:shot:
 
Die Platine der Devil 13 + die Hybridkühllösung der 295 X2 Referenz (mit tauglichem Idle-Modus) wäre wohl die 295 X2 "done right" gewesen.
 
Beeindruckende Karte...
ist die Slotblende vom Gewicht oder der enormen Abwärme verbogen?:shot:

Das ist leider dem Transport geschuldet gewesen. Unfassbar was Transportunternehmen trotz Umverpackung etc. so alles schaffen.
 
Wir reden hier über seriöse Tests und nicht über NVIDIA-Verkaufsplattformen aus den USA.
Damit kann man hier nichts anfangen.

Übrigens, Naennon. Du hast doch eine GTX Titan Z oder ? Kannst sie ja mal zu Testzwecken an Hardwerluxx schicken. Wäre doch mal interessant ob deine Investition Sinn gemacht hat. ;)

wieso soll ich meine Z zur Redaktion schicken?
und mit 1150 auf beiden GPUs frühtsückt sie deine AMD Enthusiasten Karten?
oder was soll der Test ergeben?
und es ist mir vollkommen egal ob die Investition Sinn macht :) und wenn NVidia Topmodell 200 € mehr kostet als AMDs Topmodell und dabei 20% weniger FPS liefert - sie wird gekauft

sinnlose Diskussion jedes mal...
 
"Wer so viel Geld für eine Grafikkarte ausgibt, der sollte auch ein paar Euro für die Stromrechnung in der Hinterhand haben"

Schwaches Argument.

Das Ding ist ja sogar lauter als eine 7990. Scheint wohl auf den US-Mark zugeschnitten.
 
Schau dir doch an, was passiert wenn die Amis nen Silent-PC bauen.

Gibt genug Videos bei Youtube und da ist nicht einer in 10 Videos auch nur irgendwie leise. Laut triffts da sehr gut OHNE pingelig zu sein.

@topic:

danke für den test.
dann doch lieber 2x GTX970/980 im SLI.
+ leiser
+ weniger verbrauch
+ mehr leistung
- je nach karte mehr oder weniger teurer
 
"Wer so viel Geld für eine Grafikkarte ausgibt, der sollte auch ein paar Euro für die Stromrechnung in der Hinterhand haben"

Schwaches Argument.

Weil? Gegenargument?

Bei der Lautstärke hast du recht. PowerColor begründete das nicht herausgeben von Samples mit der Lautstärke und der Tatsache, dass der deutsche Markt da sehr empfindlich ist.
 
Weil das einfach ein Totschlagargument ist. Damit lässt sich so ziemlich alles rechtfertigen.

1000W? Egal, ist ja nur für "Enthusiasten."
70dB? Egal, Leistung ist halt laut.

Nennt das Kind doch beim Namen. Die Karte verbraucht viel zu viel. Wenn ich richtig sehe, 300W mehr als ein 980 SLI? Also bitte.
 
Seit wann sind die Leute hier im Luxx eig. auf diesen scheiß Öko-Trip? Damals hat man jeden gefeiert, der eine GTX590 oder HD6990 hatte. Jetzt liest man jedes mal nur noch "Was für eine scheiße Blabla". Ich für meinen Teil finde die Karte super, weil Oversized einfach geil ist. Da interessiert die Abwärme und der Stromverbrauch nicht.
 
@Woozy: Meine Meinung :)
 
@ Woozy, klar aber die Lautstärke ... einfach nur mies. Selbst in einem Enthusiast-System ist das ein schlechter Scherz!
 
Seit wann sind die Leute hier im Luxx eig. auf diesen scheiß Öko-Trip? Damals hat man jeden gefeiert, der eine GTX590 oder HD6990 hatte. Jetzt liest man jedes mal nur noch "Was für eine scheiße Blabla". Ich für meinen Teil finde die Karte super, weil Oversized einfach geil ist. Da interessiert die Abwärme und der Stromverbrauch nicht.

+1

aber sie ist halt lauter und "schlechter" als die Ref Karte
 
@Pickebuh: Selbst wenn die oben gelisteten Seiten NVIDIA-freundlich berichten sollten, worüber ich mir bisher kein Urteil bilden konnte, so schreibt z.B. Guru 3D

Thief is one of the very few titles where Titan Z was faster opposed to Radeon R9 295x2. At Ultra HD, the Radeon R9 295x2 is almost always faster.

So jetzt setzen wir das mal noch in Relation dazu, was die Titan Z zu Beginn kosten sollte. Also 3000 EUR im Vergleich zu 1400 EUR. Der Strom, den ich mir für 1600 EUR nur fürs PC-Spielen kaufen kann, bis der aufgebraucht ist, sind wir schon 10 Kartengenerationen weiter.
 
Quatsch, GSync ist gut. Und Adaptive Sync läuft wird nicht von NV unterstützt.
Vergleichen wenn überhaupt dann mit einem SLI Gespann.
Kaum teurer, schneller, kühler, weniger Stromverbrauch. Bleibt als einziges Argument der Platz.
Was ich gut findet dass es !!keinen!! Technikaward gab.

Adaptive Sync wird sehr wohl von Nvidia unterstützt. G-sync ist gut, aber tot, das sollte man mal einsehen.
Mit G-sync verarscht Nvidia die Kunden und hat es geschafft ein paar Monate eher ein DRM System auf die Füße zu stellen, um die Käufer von A-syncmonitoren for den Kopf zu schlagen.
Aber man kann sich ruhig einen A-sync Monitor kaufen, Nvidia wird es unterstützen, da lege ich meine Hand ins Feuer.
 
G-Sync ist to weil? es noch keinen anderen "Standard" LIEFERBAR gibt? interessanter Ansatz oder weil du es sagst?
und bevor sich irgendwer irgendwas kaufst weil du (irgendjemand) seine Hand ins Feuer legst :)
 
Testet ihr Lautstärke und Temperatur bevor ihr den Kühler abnehmt? Durch andere Wärmeleitpaste kann es da ja zu Unterschieden kommen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh