AMD Radeon R9 290X im Test

Da muss echt nen Custom Design her, schon krass das sie @stock ins Temperatur Limit läuft, ansonsten war ja soweit alles schon bekannt leistungs mäßig irgendwo zwischen 780 und Titan drumherum. Crossfire macht aber nen guten eindruck, läuft ja fast immer in ein Limit?! egal ob jetzt ins Spiele, CPU oder ins Treiber Limit, da hat AMD wohl noch Potential.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Temperatur ist doch völlig egal. Wer kauft denn noch freiwillig Referenz, wenn kein Umbau zu Wasser geplant ist. :rolleyes: Beachtliche Leistung zu sehr gutem Preis (50%). Einzig der Verbrauch ist natürlich hoch. Sollte also Effizenz im Vordergrund stehen gibt es da Abstriche. Den meistens geht es aber da doch um Rohleistung.

und dann sowas lesen:

Für nV mal wieder kein Grund nervös zu werden, wie gehabt ;)
 
Der Mehrverbrauch von 30W Gegenüber einer GTX Titan ist wenn man die Kaufpreise mitnander vergleicht absolut zu vernachlässigen !
Ich habs spaßeshalber mal ausgerechnet...:lol:

Gehen wir von ~30W Mehrverbrauch aus dann sind das grob 30Std die du zocken musst um 1kWh mehr als eine Titan zu verbrauchen.
1kWh =~25Cent 290x = 500€ GTX Titan = 900€
400€ Preisdifferenz /25cent =1600kWh x 30Std = 48000Std= 2000Tage = 5,4 Jahre die du mit beiden Karten ununterbrochen zocken musst bis dich die 290x soviel gekostet hat wie ne Titan...

Jetzt das ganze noch wie lange man mit der 290x zocken kann während die Titan im Schrank liegt.

290x 250 W Verbrauch

1600kWh/250W=6400Std=266 Tage nonstop Gaming !

Rechnen wir das ganze jetzt noch auf ein realitätsnahes Scenario um :d

Nehmen wir mal eine durchschnittliche Zeit die man täglich am zocken ist..hm ich nehme mal 4 Std was schon hoch angesetzt ist.

6400Std/4hTag=1600Tage = 4,38 Jahre

4,38 Jahre lang jeden Tag 4 Std mit der 290x zocken während die Titan in der Zeit im Schrank liegt:banana:
 
Zuletzt bearbeitet:
Temperatur ist doch völlig egal. Wer kauft denn noch freiwillig Referenz, wenn kein Umbau zu Wasser geplant ist. :rolleyes:

Ich glaube, das sind mehr als du denkst außerhalb von Nerdhausen hier. ;) Zumal es ja Hersteller gibt, die Custom-Designs erstmal zurückhalten, zu Nvidia schiel... :d
 
Nur wenig. Bei Titan liegen zwischen 75 und 95 Grad ca. 15W (in 3 Spielen selbst gemessen, Gesamtsystem). Das ist zwar nicht nichts, aber immer noch wenig Ersparnis.

dann wäre die titan unter last nur noch 15w sparsammer.....dann hätte es bei cb vielleicht für eine kaufempfehlung gereicht.

aber die monieren den extrem hohen idle verbrauch.....6w mehr als titan :lol::wall:
 
NVIDIA hat einem ja auch wieder angewöhnt, dass Referenz nichts Böses ist. ;)
 
Die Titan wird niemals günstiger, alleine weil es keine reine gaming Karte ist sondern mehr auf den GPGPU Bereich abzielt. Wer die DP Rechenpower benötigt, der wird den aktuellen Preis auch Zahlen.

Eine einfache 7970 GHz Edition kann in GPGPU gut mit der Titan mithalten. Eine 7990, die gerade mal die Hälfte der Titan kostet schlägt die Titan in diesem Punkt deutlich.
KP, wer also eine Titan kaufen sollte. Vielleicht die, die unbedingt 6 GB benötigen, aber sonst ist die Karte sinnfrei.
 
Ist zwar schön dass auch ATI jetzt wieder was flotteres auf'm Markt hat, aber ich befürchte dass ihre Architektur jetzt schon aus'm letzten Loch pfeift. Hier und da in ein paar ATI Spielen schneller ansonsten eher ein "naja..." Effekt, bisher kein Argument von 2x780 oder 2xTitan umzusteigen, schade eigentlich.


Und ich sehe da nicht dass eine Titan bewzungen wird, für ihr Alter und die Entwicklungszeit die ATI dafür hatte furzt die Titan sie mit ihrer DP-Performance u. Speicher immernoch an. Der wahre Konkurrent ist hier die GTX780, wenn es um den Gamingbereich geht, und naja auch da seh ich kein allzuinteressanten Vorsprung.

Obwohl ich zugeben muss dass mir bei ATI immer sehr die Framestabilität in hohen Auflösungen gefällt. Wie gesagt, paar neuere Treiber Revisionen und Customkühler abwarten um dann mal zu sehen was der 290X wirklich kann.


Was ich wirklich seltsam finde ist der fehlende 2xTitan Vergleich im 4k Bereich.
 
Zuletzt bearbeitet:
Sehr schönes Ding - Mit einer massiven Wasserkühlung geht bestimmt auch noch einiges im OC :) (der Wasserkühler ist ja bei der Preisempfehlung ja schon fast gratis, zu dem Preis welcher erwartet wurde)
 
Zuletzt bearbeitet:
Da behaupte ich doch mal frech, dass dort dann sowieso das Verständniss für etwaiges Throttling fehlt ;)

Das stimmt auch wiederum, also einigen wir uns auf die Mitte? :d "Es gibt Leute die Ref-Design kaufen, aber die dürften sich meist mit Throtteling etc nicht viel auseinandersetzen" ;)
 
hmm die leistung ist super, der Preis ist auch sehr gut, der Verbrauch in der Leistungsregion echt zu vernachlässigen ( was macht schon 30 Watt mehr, bei den Stunden die wirklich mit Spielen und somit höherer Last verbracht werden, pro Jahr aus :d) wer die paar euro abwägen muß, muß sich vielleicht ne komplett andere graka kaufen oder sich wenn möglich einen besseren job suchen ;)

was mir gar nicht gefällt sind die Temps und die Kühlung - ich kann nur hoffen das da die Hersteller mit den Customs ordentlich nachbessern aber wenn das Temp Limit schon nach ein paar Minuten Last erreicht ist - hab ich da leider so meine Zweifel ob man aus der R9-290X ohne wakü wirklich ne halbwegs leise Karte bekommt
 
Zuletzt bearbeitet:
Das stimmt auch wiederum, also einigen wir uns auf die Mitte? :d "Es gibt Leute die Ref-Design kaufen, aber die dürften sich meist mit Throtteling etc nicht viel auseinandersetzen" ;)

Ich sehe wir verstehen uns ;)

Obwohl ich zugeben muss dass mir bei ATI immer sehr die Framestabilität in hohen Auflösungen gefällt. Wie gesagt, paar neuere Treiber Revisionen und Customkühler abwarten um dann mal zu sehen was der 290X wirklich kann.


Was ich wirklich seltsam finde ist der fehlende 2xTitan Vergleich im 4k Bereich.

So ist es. Wobei ich denke auch weniger der große Leistungssprung angestrebt war, sondern vielmehr kleiner Leistungssprung zu deutlich besserem Preis.

Möglicheweise gab es Probleme beim Titan SLI unter 4k? :hmm:
 
Da behaupte ich doch mal frech, dass dort dann sowieso das Verständniss für etwaiges Throttling fehlt ;)

was aber total wurscht ist...
Man sollte nicht vergessen, das die Reviews doch idR mit stark OCed CPUs gemacht werden.
Stell dir nen Core2 irgendwas oder Phenom II X4 hin und drück so ne GPU rein -> die kommt gar nicht auf Touren um ins Limit zu laufen :fresse:

PS: und ich kaufe nur Ref. -> einfach weil Custom Modelle die Abluft idR NICHT aus dem Case befördern. Was nutzt es mir, wenn ein paar °C weniger auf der Uhr stehen bei 30 Sekunden Benchtests, die Kiste sich aber binnen ein paar Minuten/Stunden so aufheizen kann, das die Gehäuseinnenraumtemperatur weit über 40°C steigt.
Und ja, ich weis wovon ich da spreche. Fermi im SLI lässt grüßen! Nur war es dort sogar so schlimm, das über 2x300W+ die ~28m³ Raumvolumen bei mir derart aufgeheizt haben, das du selbst im Winter bei -25°C Außentemperatur und angekipptem Fenster mit Badehose spielen wolltest :fresse:
 
Also den THW Bericht finde ich am interessantesten und mich persönlich würden folgende Zeilen im Fazit stutzig machen:

AMD behauptet, man lege die Kontrolle darüber gänzlich in die Hand des Kunden. Tatsächlich ist es möglich, die maximale Lüfterdrehzahl durch das überarbeitete PowerTune Feature selbst zu definieren. Dabei setzt man allerdings auf dieselbe, lautstrake Kühllösung, die bereits auf der Radeon HD 7970 im Referenzdesign für orkanartige Geräuschbelästigung sorgte. Dem wirkt man immerhin durch zwei unterschiedliche, auswählbare Firmware-Versionen auf der R9 290X entgegen: „Quiet“ und „Uber“. Im „Quiet-Mode“ arbeitet der Lüfter mit höchstens 40% seiner Maximaldrehzahl als fixe Obergrenze, während er im Uber-Mode bis auf 55%, hörbar lauter und innerhalb nicht mehr als angenehm zu bezeichnender Parameter aufdreht. Aus diesem Grund bevorzugen wir den „Quiet-Mode“. Dabei ergibt sich jedoch das Problem, dass die Karte selbständig heruntertaktet, sobald der Hawaii-Chip bei 40%iger Lüfterdrehzahl 95°C erreicht. Für eine einzelne R9 290X ist es dann nicht ungewöhnlich, dass der Chiptakt auf einen Wert zwischen ungefähr 750 und 850 MHz abfällt. Im Crossfire-Gespann konnten wir sogar ein dauerhaftes Absinken auf bis zu 727 MHz beobachten. Eine effektivere Kühllösung hätte sowohl einen leiseren, als auch beständigeren Betrieb im Bereich des Maximaltakts bedeuten können.

Die Customlösungen mit vernünftigen Kühlern werden sicher deutlich teuerer werden ...

Nvidia liefert immer selbst ein Vernünftig entwickeltes Produkt unabhängig vom Preis, wärend AMD gerne die Boardpartner das Produkt vollenden lässt ...
 
Zuletzt bearbeitet:
wie erwartet, Titanniveau zum guten Preis ;)

die eine Seite hat da paar % vor Titan, die anderen paar % hinter Titan, aber im Endeffekt sinds 2 gleichstarke Karten.
P/L ganz klarer Win an AMD, beim Rest weiss ich nicht so, muss jeder selbst wissen.
 
@Boxleiterbox
Wird die R9 290 etwas sparsamer werden als die R9 290X und gar niedrigere Temperaturen halten können (PowerTune)
oder wird es auf gleiche hinauslaufen wie schon beim großen Bruder...
Zudem könnte man den Lüfter im Idle nochmals leiser drehen lassen! Kann mann dort selbst Hand anlegen?
Brauche eine absolu LEISE Karte beim Surfen, ist dies mit der derzeitigen R9 290X möglich?
Was denkst Du?
 
Zuletzt bearbeitet:
Mick_Foley schrieb:
Lies dir mal den Text über dem Diagramm von Spiel-Verbrauch durch...

Was zeigt, dass die Effizienz auf Titan Niveau ist, wenn die Karte nicht so Heiß wird, super aussagekräftige Messung, vor allem für Custom Designs, für das Referenzdesign ist es natürlich eher falsch.
 
beim Thema Lautstärke bin ich der falsche Ansprechpartner :wink:
Bei mir gibts nur volle Touren für den Lüfter ;)
 
Oh Gott nein, eine HighEnd Karte die mehr Strom braucht als eine interne Karte der CPU. Das ist echt sowas von mies. Die hätte ich mir gekauft, aber der Verbrauch ist ja absolut nicht akzeptabel...

Wer Ironie findet darf sie behalten ;)

Ich finde diese Kommentare langsam sowas von witzlos. Eh man die Mehrkosten in der Anschaffung zB einer Titan durch Strom verbraucht hat, haben 99% der potentiellen Käufer schon die nach Nachfolgegeneration (oder noch 3 Nachfolger) im System. Ich finde die Karte rein aus P/L Sicht sehr gut gelungen. Wer eine leise will, der nimmt eh später Custom. Dennoch für mich kein Grund zu wechseln :)

Gesendet von meinem GT-I9300 mit der Hardwareluxx App

Ein sehr kluger Kommentar :angel:

Stromverbrauch auf höhe der GTX690 die 1 1/2 Jahre Alt ist, Kühlsystem wie gehabt miserabel - Alles in allem auf gewohnt schlechten Niveau von ATI/AMD, Mega Fail :(

Positiv ist natürlich Mantle&TrueAudio, was man wie Testen konnte ? :d

Für nV mal wieder kein Grund nervös zu werden, wie gehabt ;)

Nichts für ungut, aber dein Kommentar entbehrt wirklich jedlicher Grundlage. die 290X ist alles andere als ein Fail.

Der Mehrverbrauch von 30W Gegenüber einer GTX Titan ist wenn man die Kaufpreise mitnander vergleicht absolut zu vernachlässigen !
Ich habs spaßeshalber mal ausgerechnet...:lol:

Gehen wir von ~30W Mehrverbrauch aus dann sind das grob 30Std die du zocken musst um 1kWh mehr als eine Titan zu verbrauchen.
1kWh =~25Cent 290x = 500€ GTX Titan = 900€
400€ Preisdifferenz /25cent =1600kWh x 30Std = 48000Std= 2000Tage = 5,4 Jahre die du mit beiden Karten ununterbrochen zocken musst bis dich die 290x soviel gekostet hat wie ne Titan...

Jetzt das ganze noch wie lange man mit der 290x zocken kann während die Titan im Schrank liegt.

290x 250 W Verbrauch

1600kWh/250W=6400Std=266 Tage nonstop Gaming !

Rechnen wir das ganze jetzt noch auf ein realitätsnahes Scenario um :d

Nehmen wir mal eine durchschnittliche Zeit die man täglich am zocken ist..hm ich nehme mal 4 Std was schon hoch angesetzt ist.

6400Std/4hTag=1600Tage = 4,38 Jahre

4,38 Jahre lang jeden Tag 4 Std mit der 290x zocken während die Titan in der Zeit im Schrank liegt:banana:

Ein noch klügerer Kommentar. Wer immer noch der Meinung ist niedrigerer Stromverbrauch ist ein absolutes Ausschluß Kreterium, soll sich einfach einen Pentium MMX 200MHz + Nvidia Riva TNT aus dem Keller holen und mit dem Zocken. Damit verbraucht man keine 100W unter Last. Das nenne ich mal Strom sparen:shot:
 
Zuletzt bearbeitet:
Chapeau an AMD!

Tolle (Referenz-)Karte herausgebracht. Zumindest insofern, als das AMD die Lücke zur 780/Titan geschlossen hat bzw. hält.
Der im Vorwege angekündigte "Überflieger" ist es dann aber wohl doch nicht geworden. Dafür ist der Abstand dann doch zu gering (abgesehen von 4K).

Die Karte müsste aber zwingend mit WaKü betrieben werden, der Stromverbrauch ist auch nicht ohne und ob sich Mantle durchsetzt bzw. tatsächlich mehr Leistung bietet, ist aktuell noch fraglich. Da werden wir wohl erst im Dezember mit dem Dice-Update Klarheit haben.

Für mich aktuell eine uninteressante Karte.
Vorteil für alle Konsumenten: Es dreht sich wieder die Preisschraube.
Dank gilt natürlich den HwLuxx-Testern!
 
Zuletzt bearbeitet:
Was zeigt, dass die Effizienz auf Titan Niveau ist, wenn die Karte nicht so Heiß wird, super aussagekräftige Messung, vor allem für Custom Designs, für das Referenzdesign ist es natürlich eher falsch.

Aber das letztere ist das entscheide bezüglich deines Vergleiches mit dem Test hier, hier wurde nicht künstlich ein Verbrauchstunnel erzeugt. Übrigens, glaube ich, dass die Grafik bei Tomshardware falsch rum beschriftet ist, der kleinere Wert müsste der mit dem 70 Grad Temptarget sein, nicht der größerer, da die Karte ja eigentlich viel höher geht. :d
 
Mir gefällt die Karte. Denke ein guter Grund die 680 zu verkaufen und nach der 5870 mal wieder eine ATi (AMD :)) zu kaufen... Stromverbrauch und Lautstärke sind sowieso irrelevant. Hat zufällig jemand schon einen Test mit Starcraft 2 gefunden?
 
nette karte,
dieser ganze powertune quatsch nervt mich aber.

damals bei hd2900 und 4870 hat man sowas doch auch nicht gebraucht..

denke das die R9 290 noch eine ecke interessanter wird,
dürfte mit standardtakt ~15% langsamer als die 290x im uber-mode sein, mit oc dann sicher genau so schnell und das ganze für 400€.
 
Zuletzt bearbeitet:
was aber total wurscht ist...
Man sollte nicht vergessen, das die Reviews doch idR mit stark OCed CPUs gemacht werden.
Stell dir nen Core2 irgendwas oder Phenom II X4 hin und drück so ne GPU rein -> die kommt gar nicht auf Touren um ins Limit zu laufen :fresse:

PS: und ich kaufe nur Ref. -> einfach weil Custom Modelle die Abluft idR NICHT aus dem Case befördern. Was nutzt es mir, wenn ein paar °C weniger auf der Uhr stehen bei 30 Sekunden Benchtests, die Kiste sich aber binnen ein paar Minuten/Stunden so aufheizen kann, das die Gehäuseinnenraumtemperatur weit über 40°C steigt.
Und ja, ich weis wovon ich da spreche. Fermi im SLI lässt grüßen! Nur war es dort sogar so schlimm, das über 2x300W+ die ~28m³ Raumvolumen bei mir derart aufgeheizt haben, das du selbst im Winter bei -25°C Außentemperatur und angekipptem Fenster mit Badehose spielen wolltest :fresse:

Die Abluft solltest du mit vernünftiger Casebelüftung aber gut aus dem Case bringen können :) Ansonsten ist der Badehoseneffekt ja nicht unbedingt schlecht :)
 
Ein noch klügerer Kommentar. Wer immer noch der Meinung ist niedrigerer Stromverbrauch ist ein absolutes Ausschluß Kreterium, soll sich einfach einen Pentium MMX 200MHz + Nvidia Riva TNT aus dem Keller holen und mit dem Zocken. Damit verbraucht man keine 100W unter Last. Das nenne ich mal Strom sparen:shot:
Dir ist schon bewusst, das ich den Kram nur aus Spaß um dieses unsinnige Mehrverbrauchsargument abadsurdum zu führen,ausgerechnet habe ?
Mir ist das ehrlichgesagt wayne ob ne Karte jetzt 200 oder 250W verbraucht.

Mich interessiert in erster Linie welcher Hersteller das fürs Geld bessere Gesamtpaket bietet und das ist meistens AMD !
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh