Weitere Bordpartner präsentieren Radeon R9 290X mit 8 GB

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.274
Ort
Augsburg
<p><img src="/images/stories/logos-2013/amd-radeon-2013.jpg" width="100" height="100" alt="amd-radeon-2013" style="margin: 10px; float: left;" />Die AMD Radeon R9 290X mit satten 8 GB Videospeicher ist nun Realität. Bereits am gestrigen Donnerstag hatten <a href="index.php/news/hardware/grafikkarten/33249-powercolor-und-sapphire-praesentieren-radeon-r9-290x-mit-8-gb.html">mit Sapphire und PowerColor die ersten Hersteller</a> entsprechende Ableger vorgestellt. In der Zwischenzeit sind aber auch Club3D, XFX und MSI nachgezogen. Modelle mit Referenz-Kühler und/oder -Taktraten sind selten anzutreffen. Während MSI seiner Radeon R9 290X Gaming das Speicherupgrade spendierte, setzt man bei XFX auf die Radeon R9 290X Double Dissipation Edition. Bei Club3D ist die Radeon R9 290X royalAce...<br /><br /><a href="/index.php/news/hardware/grafikkarten/33270-weitere-bordpartner-praesentierten-radeon-r9-290x-mit-8-gb.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum verramscht AMD die Karten so unter Wert? 500-600€ hätte ich eher für angemessen erachtet.
 
8GB - 512Bit SI - Im Grunde klingt es wie ein feuchter Traum für 4K. Und da es zur Zeit ein Alleinstellungsmerkmal ist, könnte man auch mehr verlangen.
 
Denke mal die nächste Highend Serie kommt so von Haus aus.
Hoffentlich implementiert AMD auch mal das Downsampling im Treiber das ich auch mal wieder zu AMD Karten greifen kann.
 
Warum verramscht AMD die Karten so unter Wert? 500-600€ hätte ich eher für angemessen erachtet.

Nvidia ist mächtig, die GTX 900er Serie heiß begehrt und da Full HD noch immer kein Standard bei allen Gamern ist, 4K noch in extrem weiter Ferne liegt und selbst Hardcoregamer noch immer glauben, das 1-2GB V-Ram für jedes Spiel, egal in welcher Auflösung, vollkommen ausreichend ist, wird sich das so schnell nicht ändern, darüber hinaus lassen sich die neuen GTX Modelle deutlich besser übertakten, als die entsprechenden Konkurrenzmodelle von AMD.

Nvidia ist mir fürchterlich unsympathisch, ich kann deren Verkaufspolitik und Machenschaften mit Entwickler nicht ausstehen und deren Preise sind in der Regel eine Frechheit, aber selbst ich würde aktuell, wenn ich eine neue GPU kaufen müsste und das meiste für mein Geld haben mag, eine GTX 970 kaufen und keinesfalls eine AMD. Und da Nvidia zu gut aufgestellt ist und viele immer noch der Meinung sind (ATI/AMD) würde nur Ramsch verkaufen, habe oft solche Gespräche geführt, muss AMD auch Karten mit 8GB relativ günstig verkaufen. Und selbst Kenner würden dann eher zur Classic Titan 6GB oder zur Ti 6GB greifen (gebraucht), wenn 4K wirklich zur Debatte stünde.
 
8GB - 512Bit SI - Im Grunde klingt es wie ein feuchter Traum für 4K. Und da es zur Zeit ein Alleinstellungsmerkmal ist, könnte man auch mehr verlangen.

Ist halt nicht NV .
Leider bietet AMD kein DS und so viele 4K Monitore sind noch nicht an den Mann gebracht worden.
Mit einer Karte kommt man auch nicht weit wenn man annähernd was mit den 8GB anfangen will sollten es schon 2Karten sein am besten sogar 3+
Leider ist der suport für 3Karten und mehr sehr schlecht erinnere mich noch an mein Quadfire mit 4*7970HD.
 
Und selbst Kenner würden dann eher zur Classic Titan 6GB oder zur Ti 6GB greifen (gebraucht), wenn 4K wirklich zur Debatte stünde.

Welche Ti hat denn 6gb und wieso sollte ich das doppelte für eine Titan ausgeben?
 
Ich muss sagen zum Preis der derzeiten MSI Karte hätt ich mir die geholt statt der 780, dann kann man sich auch getrost den buckel runterrutschen lassen beim Thema "Kackkonsolenport" :d

Freu mich schon wenn in ein paar Monaten die Karten zu Spottpreisen im MP landen weil die neuen AMDs da sind, dann hab ich ne neue :fresse2:
 
Zuletzt bearbeitet:
Warum verramscht AMD die Karten so unter Wert? 500-600€ hätte ich eher für angemessen erachtet.

Ich verstehe es auch nicht.
Hab mir jetzt wegen UHD-Monitor eine zweite R9 290 gegönnt. Diesmal von MSI eine wie hier gezeigte Gaming OC. Der Verkäufer wollte mir unbedingt von dieser Karte abraten und mir groß und breit erklären, das AMD viel schlechter als NVIDIA sei. :stupid:
Nach einigem Hin und Her habe ich mich doch gegen den Verkäufer entschieden ! :)

Die Karte werkelt nun in meinem Rechner und ist bis jetzt die Beste Karte, die ich hatte !!
Sie ist sehr leise im Betrieb und die Spulen sind nochmals mittels Dämmung am Kühlkörper gegen Schwingungen isoliert. Spulenfiepen gleich NULL und das zu diesem tollen Preis.
Warum sollte man sich da eine NVIDIA kaufen, die deutlich teurer ist ? Wegen den 20 Watt weniger Verbrauch ??

Wie schon gesagt. Ich kann den ganzen Hype um die tolle Maxwell von NVIDIA nicht nachvollziehen. Bei AMD bekommt man ungleich deutlich mehr und qualitativ hochwertiges für sein hart erarbeitetes Geld.

8GB sehe ich allerdings nicht als so notwendig an. Ist reines Marketing und nutzt doch niemanden etwas. Da dauert noch etwas, bis wirklich 8GB relevant werden.
 
Zuletzt bearbeitet:
Nvidia ist mächtig, die GTX 900er Serie heiß begehrt und da Full HD noch immer kein Standard bei allen Gamern ist, 4K noch in extrem weiter Ferne liegt und selbst Hardcoregamer noch immer glauben, das 1-2GB V-Ram für jedes Spiel, egal in welcher Auflösung, vollkommen ausreichend ist, wird sich das so schnell nicht ändern, darüber hinaus lassen sich die neuen GTX Modelle deutlich besser übertakten, als die entsprechenden Konkurrenzmodelle von AMD.

Nvidia ist mir fürchterlich unsympathisch, ich kann deren Verkaufspolitik und Machenschaften mit Entwickler nicht ausstehen und deren Preise sind in der Regel eine Frechheit, aber selbst ich würde aktuell, wenn ich eine neue GPU kaufen müsste und das meiste für mein Geld haben mag, eine GTX 970 kaufen und keinesfalls eine AMD. Und da Nvidia zu gut aufgestellt ist und viele immer noch der Meinung sind (ATI/AMD) würde nur Ramsch verkaufen, habe oft solche Gespräche geführt, muss AMD auch Karten mit 8GB relativ günstig verkaufen. Und selbst Kenner würden dann eher zur Classic Titan 6GB oder zur Ti 6GB greifen (gebraucht), wenn 4K wirklich zur Debatte stünde.

full HD ist höchstens bei Konsoleros kein standard bei pc "GAMERN" (und nicht casual cowclickern) ist full HD schon seit mind. 6 Jahren standard und insofern schon lange überfällig erneuert zu werden...und damit meine ich die vollen 1900x1200 nativ auf 24" und nicht die abgespeckte 1900x1080 version und diverse hochskalierte ekligkeiten der last gen konsolen

Die 6 und 8GB versionen der 9xx serie sind übrigens schon im anrollen.

Ich stimme zu dass 4K wohl deutlich länger brauchen wird sich durchzusetzen...der Mehraufwand der da betrieben werden muss seitens
des Konsumenten ist noch viel zu erheblich und der tatsächliche Nutzwert bei Monitoren unterhalb der 30" na ja ich weiss nicht so recht.

Multidisplay Setups sind im breiten Spektrum ja noch mehr im Bereich Exotic als es 4k selbst noch ist.

Von der fehlenden Unterstützung seitens Windows was ordentliches scaling im desktop angeht bei 4k brauchen wir gar nicht erst anfangen.

Dazu kommt der Bremsfaktor der CurrentGen Konsolen ...die NIEMALS 4K unterstützen werden..und leider gibt Konsolendreck die Marschrichtung im Absatzbereich vor.

Eine komplette Neuanschaffung eines Desktop oder entsprechenden Laptop fasse ich z.b frühestens 2016 ins Auge.
 
Zuletzt bearbeitet:
8GB sehe ich allerdings nicht als so notwendig an. Ist reines Marketing und nutzt doch niemanden etwas. Da dauert noch etwas, bis wirklich 8GB relevant werden.

Würde mich mal interessieren, wie die 290x 8gb version im 4-way cf bei 4k Benchmarks abschneidet. Gibts schon irgendwo tests dazu? Habe bis jetzt leider nichts gefunden.
 
Zuletzt bearbeitet:
full HD ist höchstens bei Konsoleros kein standard bei pc "GAMERN" (und nicht casual cowclickern) ist 1080p schon seit mind. 6 Jahren standard und insofern schon lange überfällig erneuert zu werden...und damit meine ich die vollen 1900x1200 nativ auf 24" und nicht die abgespeckte 1900x1080 version.
Das bezweifel ich ganz stark. Das luxx ist nicht repraesentativ fuer alle gamer ;)
 
Warum sollte man sich da eine NVIDIA kaufen, die deutlich teurer ist ? Wegen den 20 Watt weniger Verbrauch ??

20W sind wohl etwas zu wenig ;).

Leute wie ich kaufen nvidia die keine Lust auf AMD Treiber haben.
 
Ich hatte seit 2005 AMD Karten in Betrieb und bin vor über einem Monat auf NV gewechselt..

Das was mir am meisten aufgefallen war ist:

AMD Treiber sind vorallem in Multi-GPU Bereichen etwas dürftig..

CF geht nur im fullscreen, weder im borderless, noch im windowed.
DX9 Framepacing sucht man auch noch vergebens.

Flashplayer wenn man gpu-accel an hat und ein 3d game am laufen hat, beharkt sich gerne mal... (Nicht unbedingt AMDs fehler, bei NV hab ich solche Probleme jedoch noch nicht gesehen)

Im Nvidia Treiber kann man die Gamma einstellen, bei AMD aus irgendeinem Grund nicht.

Und jetzt neu mit DSR kann man ohne Probleme auch mal Downsampling betreiben, ohne dass das Spiel gehackt oder sonstwas werden muss. Denn viele Spiele unterstützen zunehmend nurnoch PostAA wie FXAA/SMAA/etc. Dazwischen liegen einfach Welten.
 
CF geht nur im fullscreen, weder im borderless, noch im windowed.
DX9 Framepacing sucht man auch noch vergebens.

Ist das jetzt der Nachteil, warum man sich für eine NVIDIA entscheiden sollte ?
Ich spiele vorwiegend im Fullscreen, da wo man CF benötigt.

Flashplayer wenn man gpu-accel an hat und ein 3d game am laufen hat, beharkt sich gerne mal... (Nicht unbedingt AMDs fehler, bei NV hab ich solche Probleme jedoch noch nicht gesehen)

Könnte sein, oder auch nicht. Ist nicht gerade sehr überzeugend, wenn man Mutmaßungen trifft. ;)

Im Nvidia Treiber kann man die Gamma einstellen, bei AMD aus irgendeinem Grund nicht.

Guckst du hier:
Gamma einstellung.jpg

Und jetzt neu mit DSR kann man ohne Probleme auch mal Downsampling betreiben, ohne dass das Spiel gehackt oder sonstwas werden muss. Denn viele Spiele unterstützen zunehmend nurnoch PostAA wie FXAA/SMAA/etc. Dazwischen liegen einfach Welten.

DSR sind nette Filterspielereien. Mehr auch nicht. Downsampling wurde auch nur aus einem Grund ins Leben gerufen. Man möchte keine durch Antialiasing verwaschene Bilder genießen können.
Sämtliche Filterfunktionen dienen nur einem Zweck. Die Treppenstufen zu minimieren. Aber diese Filterfunktionen verändern das Ausgangsmaterial. Es wirkt dadurch getrübt und unscharf. Mit Downsampling versucht man die negativen Auswirkungen von Antialiasing zu kompensieren.

Was aber, wenn man Antialiasing gar nicht mehr benötigt ? 4K bzw. UHD oder jetzt auch bald die 5K-Displays sind so hochauflösend, das man Treppenstufen gar nicht mehr wahrnimmt. Ich habe selber einen 4k Bildschirm und kann das bestätigen.

Somit entfällt der ganze Rattenschwanz von Antialiasing, Downsampling, FXAA weg und auch das neue DSR ist dadurch völlig überflüssig geworden.

Ich sehe immer noch keinen Grund, warum man sich eine NVIDIA-Karte zulegen sollte, die deutlich mehr kostet.
 
Zuletzt bearbeitet:
Die Gamma hab ich da nie gefunden. Habe in den Monitoreinstellungen gesucht, da gab es alles außer Gamma :wall:


Generell waren es halt Dinge, die mir selber aufgefallen sind nach fast 9 Jahren mit ATI/AMD Karten.

ATM sind die neuen Karten von Nvidia wesentlich besser im Preis aufgestellt als sonst. (Üblich waren >50-100€ Aufpreis für die gleiche Leistungsklasse)
Aber jetzt gingen die 780 Ti teilweise für <350€ weg, 970 sind ab 300€ zu haben. Die 980 ist wirklich überteuert.

GTX 970 und 290x nehmen sich nichts, 290x ein paar € günstiger, 970 hat einen wesentlich komfortableren Verbrauch sowie besseres OC potential.

Am Ende entscheiden die Features, die man bei dem jeweilligen Hersteller bekommt:
Nvidia: Shadowplay, Gamestream, Physx, G-Sync, DSR, Linux Treiber
AMD: Mantle , Besseren Multi-Monitor, Etwas bessere Multi-GPU Skalierung (Mit FS limit)
 
Ich hatte seit 2005 AMD Karten in Betrieb und bin vor über einem Monat auf NV gewechselt..

Das was mir am meisten aufgefallen war ist:

AMD Treiber sind vorallem in Multi-GPU Bereichen etwas dürftig..

CF geht nur im fullscreen, weder im borderless, noch im windowed.
DX9 Framepacing sucht man auch noch vergebens.

Flashplayer wenn man gpu-accel an hat und ein 3d game am laufen hat, beharkt sich gerne mal... (Nicht unbedingt AMDs fehler, bei NV hab ich solche Probleme jedoch noch nicht gesehen)

Im Nvidia Treiber kann man die Gamma einstellen, bei AMD aus irgendeinem Grund nicht.

Und jetzt neu mit DSR kann man ohne Probleme auch mal Downsampling betreiben, ohne dass das Spiel gehackt oder sonstwas werden muss. Denn viele Spiele unterstützen zunehmend nurnoch PostAA wie FXAA/SMAA/etc. Dazwischen liegen einfach Welten.


bei mir isses genau andersrum. Wenn ich bei Nvidia nichtmal 5 monitore bei 780 SLI ansteuern kann is das für mich ein armutszeugniss.. da muss ich mir extra ne dritte karte kaufen die außerhalb vom SLI werkelt umeinen 5 Monitor anzusteuern. Da sollte sich Nvidia mal ne große Scheibe von AMD abschneiden.. bei denen is das Eyefinity setup nämlich top einzustellen egal wieviel Monitore.
 
Ich hab seit 2 Jahren eine Nvidia drine. Zuletzt hatte ich eine HD 7850 - mit der Karte war ich zufrieden aber leider hat die Leistung nicht mehr gestimmt und bin auf eine GTX 780 Referenzkarte gewechselt und dann bin ich bei NV auf eine Customdesign gewechselt - und dann bagnn der Leidensweg des Spulenfiepen. Habe mindestens 7x GTX 780 gehabt - 1x R9 290 leider hatten alle dieses Problem. Und nun mit der GTX 970 bin ich schon bei meiner 6ten Karte - . Hab mir nun eine GTX 980 bestellt und denke das die ebenso fiepen wird und bei der Bestellung ziemlich Bauchschmerzen. In Moment ist mir das egal welche Karte AMD oder NV. Ich hoffe die R9 290 mit 8GB in liegt im Rahmen 410 Euro von Sapphire. Dann werde ich das Lager wechseln.
 
Also wenn schon so viele 780er gefiept haben, die dafür weniger bekannt sind, dann solltest du rstmals chauen ob es sicher die Graka ist! Eventuell ist es das Netzteil... Oder nas NT missfällt den grakas und bringt sie alle schnell zum fiepen.
 
Das Netzteil kann es nicht sein - da ich eine Asus GTX 780 hatte die fiepfrei war - be quiet E9 480W.

Werde es trotzdem im Auge behalten.
 
Zuletzt bearbeitet:
Welche Ti hat denn 6gb und wieso sollte ich das doppelte für eine Titan ausgeben?

Meinte die GTX 780 6GB, dürfte sicherlich nicht mehr als die Classic Titan kosten (gebraucht) und soweit ich das korrekt in Erinnerung habe, ist eine gebrauchte Titan stark im Preis gefallen (GTX 970/980) und auch wenn sie mehr Strom verbraucht, so ist sie mit ordentlichem OC bei gleichem Takt immer noch schneller als die 900er Serie und auch deutlich schneller als die AMD 290er Serie. Die lassen sich unter Luft schwer halbwegs leise kühlen und sind noch schlechter zu übertakten.

Nvidia kann ich wirklich nicht leiden, aber in den letzten Jahren produzieren sie wirklich gute Karten. Und wer eine GTX 780/Titan mit 6GB für das selbe Geld, wenn auch gebraucht, wie die AMD 290 8GB bekommen kann, greift lieber dort zu. Die Vorteile überwiegen. Eine Custom 780 6GB wäre da zu bevorzugen (Kühlung/Lautstärke)

Er meinte wahrscheinlich non TI :)

Korrekt, danke dir. Im Eifer des Gefechts unterlaufen einem schon mal Fehler.

full HD ist höchstens bei Konsoleros kein standard bei pc "GAMERN" (und nicht casual cowclickern) ist full HD schon seit mind. 6 Jahren standard und insofern schon lange überfällig erneuert zu werden...und damit meine ich die vollen 1900x1200 nativ auf 24" und nicht die abgespeckte 1900x1080 version und diverse hochskalierte ekligkeiten der last gen konsolen

Die 6 und 8GB versionen der 9xx serie sind übrigens schon im anrollen.

Ich stimme zu dass 4K wohl deutlich länger brauchen wird sich durchzusetzen...der Mehraufwand der da betrieben werden muss seitens
des Konsumenten ist noch viel zu erheblich und der tatsächliche Nutzwert bei Monitoren unterhalb der 30" na ja ich weiss nicht so recht.

Multidisplay Setups sind im breiten Spektrum ja noch mehr im Bereich Exotic als es 4k selbst noch ist.

Von der fehlenden Unterstützung seitens Windows was ordentliches scaling im desktop angeht bei 4k brauchen wir gar nicht erst anfangen.

Dazu kommt der Bremsfaktor der CurrentGen Konsolen ...die NIEMALS 4K unterstützen werden..und leider gibt Konsolendreck die Marschrichtung im Absatzbereich vor.

Eine komplette Neuanschaffung eines Desktop oder entsprechenden Laptop fasse ich z.b frühestens 2016 ins Auge.

Das mag zwar deine Sichtweise sein, wenn man jedoch auf Statistiken von Steam zugreift, sieht die Welt schon ganz anders aus. Darüber hinaus haben wir es oftmals auch mit extrem schlecht optimierten Spielen zu tun, so das es hin&wieder mit hohen Settings schwer ist 60fps mühelos zu erreichen, so lange man min. 4x AA einsetzen möchte, damit es nicht permanent flimmert (anspruchsvolleres Artdesign, detaillierte Levels, Beleuchtungssystem welches Objekte beleuchtet, die glänzen und daher zum starken Flimmer neigen, schlimmstes Beispiel dafür ist Alien Isolation).

Standpunkt heute über 4K nachzudenken, bedeutet sich einen extrem teuren Monitor anzuschaffen, darauf zu hoffen, dass ein Spiel diese Auflösung überhaupt unterstützt (aktuell werden einige Spiele mit 4K Support beworben ) und dann auch die notwendig Leistung dafür zu haben, sprich 2 High End GPU's und eine extrem starke CPU, welche auf jeden Fall auch noch übertaktet sein müsste, da noch AMD Mantle/DX12 Support im großen und ganzen fehlt und man somit eher im CPU Limit landet, als das 4K realistisch sind. 4K Sprich also nur eine extrem kleine Zahl an Spielern an.

Ich bin zum Beispiel erst vor 4 Jahren auf Full HD umgestiegen und ich gehöre eigentlich zu den Hardcoregamer, die wirklich viel Geld für ihr Hobby ausgeben. Ein Kumpel von mir eben so, er stieg erst vor 2 Jahren um und spielt jede Woche leidenschaftlich Videogames und hasst Konsolen, ich hingegen besitze PS3/X360 und PS4/X1 werde ich mir in den nächsten 2-3 Jahren sicherlich auch noch kaufen, momentan gibt es nicht ausreichend interessante Titel pro Plattform ;)

4K ist für mich auch aus dem einfachen Grund noch uninteressant, da ich noch nicht weiß, was mit Mantle/DX12 passiert, bei Intel in Sachen CPU Power schon lange nichts mehr passiert und Spiele zunehmend eingeschränkt werden, so das man schon von 60fps Support spricht, eine Katastrophe. Und in Sachen Gaming setze ich meine Hoffnung auf Oculus Rift, nicht 4K Monitoren, aber dort existiert dann die nächste Hürde, sie muss unterstützt, sinnvoll dafür optimiert werden und die Spiele auch ohne CPU Limit oder später mit Mantle/DX12 auch 90-120fps unterstützen.

Daher spare ich bereits für 2 neue GPU's und die Brille und lege dafür schon mal 1000€ zur Seite.

Das bezweifel ich ganz stark. Das luxx ist nicht repraesentativ fuer alle gamer ;)

Ganz genau, auch Dir ein Danke schön.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh